Que el que ara anomenem eines d’intel·ligència artificial no son més (ni menys!) que motors especialitzats en reconeixement de llenguatge, i amb una capacitat de resposta sorprenent, en funció dels patrons que troben en les preguntes i en el coneixement acumulat (models d’entrenament inicials més l’entrenament que puguin tenir a base de la interacció amb usuaris), ja s’ha dit unes quantes vegades. Lloros estocàstics, que en diuen alguns, de manera pejorativa.

De l’ús inadeqüat que se’n pugui fer d’aquestes eines, també se’n parla bastant:

  • Per part dels usuaris: per fer trampes als exàmens, per generar desinformació (textual, d’imatges o sò), per fer-se passar per tercers (ai, el phising), o per donar veracitat a informacions que son incorrectes, irreals o directament falses, però presentades d’una manera molt convincent i amb un context plausible.
  • Per part dels gestors: per explotar la informació extreta dels usos, per explorar les preguntes i relacionar-les amb els conjunts d’usuaris registrats, o per millorar encara més la resposta “perfilada”.

I dels perills per a la societat en quant a desinformació, creixement de la bombolla informativa en un context que pot semblar real, aïllament i trencament de diàleg, encara més, ajuntament perills de cerca de consultes mèdiques, d’alimentació o salut en general. O dels propis biaixos que la informació pot incloure.

I és aquí on el Washington Post ha publicat un article molt interesant, amb un títol que ja ho diu tot: Inside the secret list of websites that make AI like ChatGPT sound smart.

I és que és aquí on rau una de les dues claus de volta: en la informació que s’està donant a aquests models d’autoaprenentatge (l’altra és en els propis algorismes inicials d’aprenentatge). No sabem, en general (i segurament interessa poc, només cal veure la poca transparència d’OpenAI, els creadors de ChatGPT més enllà de les seves notes comunicatives) amb què s’està ensenyant aquests motors. I si no se sap, amb què s’entrenen, no se sap què pot sortir d’allà, poc més que creure’ns que posen límits i controls.

En aquest sentit, tenir accés a les bases de dades usades per a l’entrenament dóna una visió sobre què pot sortir d’allà i sobre els biaixos que, voluntaria o involuntàriament, ignorats o no, s’hi hagin pogut colar. I que afectaran al resultat que molta gent pot creure.

Potser si que caldria crear un corpus comú d’entrenament per a aquestes eines. O que fossin totalment transparents en això i publiquessin d’on s’alimenten, per veure si els falta quelcom o tiren cap a una altra banda: si estan desenvolupats per empreses occidentals, tiraran més de sites i conjunts de dades (inclosos llibres, enciclopèdies i obres d’art on-line) occidentals? Si son xinesos, incorporaran més material xinès? I què passa amb la cultura àrab o els africans, per citar-ne dos més?

No és gens fàcil, és clar que no. Però quan fas com fan ells i obres una eina d’aquest tipus per a l’ús de tothom, has de ser molt conscient del que pot donar i del que pot generar: hi hauria d’haver un cert nivell de responsabilitat, no val aplicar la idea aquella de no ens fem responsables del seu ús, o no som un mitjà de comunicació, com feien les xarxes socials en un principi.

Potser projectes de IA més de comunitat podrien ser més fiables, en el sentit de tranparència, que els pseudooberts?

Queda un punt de desconfiança en el que escric adalt. Però això son els perills més evidents, donat l’ús que en fa la gent, donat el que hem après o com fem servir les xarxes socials, per exemple. Però eines d’aquest estil, especialitzades, poden tenir un ús fantàstic en millorar feines, coneixement i estudis.

No es tracta de no fer-les anar, doncs. Es tracta de fer-les anar, d’ensenyar-les, amb seny. I pensant en el bé comú, perquè l’impacte és global. I això del bé comú no sempre quadra amb els objectius empresarials.