L’ús de la IA s’ha generalitzat i adoptat (voluntària o forçadament) de manera massiva, però jo segueixo tenint molts dubtes sobre algunes de les seves aplicacions, dels seus efectes, i de les conseqüències que això pot tenir.
Per serendípia, m’he trobat amb el número 221 (gener de 2024) de la revista Valors, amb el monogràfic “Necessitem una ètica per a la intel·ligència artificial?”.
Ja fa any i mig llarg dels articles… però amb el desenvolupament actual de la tecnologia, l’impacte social que té, i l’aplicació que hi estem veient en política, comunicació, defensa (diguem-li guerra) i ordre públic (diguem-li ús policial) no ha perdut pas vigència; al contrari, fa de bon revisar, perquè queda més clar que la legislació (o legislacions vigents a diferents parts del món) res tenen a fer si no s’hi aplica una ètica en el mateix origen del sistema.
Núria Vallès explica que cal revisar els principis ètics que regeixen les grans empreses que desenvolupen les eines de IA:
Qualsevol sistema tecnològic porta inscrits una sèrie de valors i prescriu d’una determinada manera les nostres accions. En filosofia de la tecnologia, d’això en diem moral materialitzada.
La moral materialitzada son totes les accions prèvies i posteriors a l’ús d’un sistema tecnològic que hi han dut i se’n deriven, perquè fer un producte d’una manera o d’una altra comporta l’ús d’uns materials o d’uns altres, o d’unes condicions de treball o unes altres, per exemple, i té unes conseqüències socials, econòmiques o materials, en funció de com s’ha dissenyat (pensem en sistemes policials, militars, o d’adopció massiva -consum energètic-, productes d’un sol ús…)
Aquestes accions estan acompanyades de determinats valors de la producció industrial, el desenvolupament del plàstic… […] Qualsevol mena de tecnologia porta inscrit un guió de comportament que anomenem script i, per tant, unes accions determinades.
Això ens ha de portar a pensar, si volem tenir un impacte i millora dels sistemes, no només en com funciona o com és aquell sistema, si no en com es fa, quines accions hi han portat i se’n deriven.
No ens fem la pregunta sobre què és la tecnologia, és a dir, què és la intel·ligència artificial o què és l’ètica en la intel·ligència artificial, sinó que ens hem de preguntar com es fa la intel·ligència artificial.
En el món actual, on qui acaba definint i explotant comercialment els grans sistemes de IA son grans empreses amb interessos econòmics, les implicacions per al planeta i la societat son molt grans.
Els models inicials van sortir de laboratoris i equips de recerca universitària, i alguns models industrials s’han alliberat després com a codi obert per a aplicacions determinades (i està molt bé que així sigui, no ens equivoquem!), però el gran volum d’ús per part de la població, empreses i governs és el dels models comercials, que a més els seus fabricants ja s’encarreguen de publicitar i desplegar arreu, marcant-lo com imprescindible (ho és, per tot? No. clar que té usos, però no cal per a tot).
Qui són els desenvolupadors principals de la intel·ligència artificial? Són les grans empreses tecnològiques que estan definint el relat, que estan introduint les seves aplicacions en àmbits centrals de la nostra vida, en la governança, en l’educació, en la salut, en la justícia, en el control de fronteres… cap àmbit no se’n pot desentendre.
Com ho fem, doncs? És bona o és dolenta, la IA? Com tota tecnologia, depèn del seu ús i amb l’economia d’escala d’avui en dia, del seu abast. Però cal un debat racionalitzat, lliure d’interessos polítics i econòmics.
[…]qualsevol reflexió eticopolítica sobre la intel·ligència artificial ara no pot deixar de banda aquestes relacions econòmiques i polítiques. Però ens cal desmuntar tota aquesta idea que genera el debat entre els tecnofòbics o els tecnoutòpics. Tot està molt polaritzat.
Debat que crec que estem lluny de poder tenir com a societat, que potser no és possible ni plantejar donat el ritme d’adopció i la poca reflexió que hi ha en una societat abocada a la novetat constant i l’adopció ràpida de tot allò que ens ho fa tot més “fàcil” (a quin cost?)
la tecnologia no és bona ni dolenta: té efectes. […] Les tecnologies són polítiques.
I les tecnologies son polítiques, perquè la seva implementació depèn, com dèiem, d’accions i provoca accions. Així:
La política i l’ètica estan molt vinculades a la democràcia.
I no és neutral, perquè l’han fet humans, subjectes a interessos
l’algoritme no va mai sol, sempre està en un entramat de relacions on hi ha un sistema de valors, que és subjectiu.
Per tant, cal vetllar perquè aquests interessos no siguin els d’un grup minoritari, sigui quin sigui. La tecnologia no és neutra, però hem d’intentar que ho sigui, per això cal aplicar-hi una ètica des de l’inici.
Com diu també Antonio Luis Terrones en el mateix número:
El problema no és fer un algoritme solidari, sinó generar un entorn tecnològic respectuós, protector… i, en el qual, l’ésser humà controli el procés.