SEGRE

La intel·ligència artificial pot ser més persuasiva que els humans si coneix dades personals

Un estudi amb 900 participants revela que ChatGPT supera les persones en capacitat de convenciment quan adapta els seus arguments a perfils demogràfics, la qual cosa planteja reptes ètics i regulatoris

Fotografia d’arxiu d’una pantalla amb el lloc web del ChatGPT de OpenAI.

Fotografia d’arxiu d’una pantalla amb el lloc web del ChatGPT de OpenAI.EFE

Publicat per
EFE

Creat:

Actualitzat:

Una aplicació basada en intel·ligència artificial (IA), com ChatGPT, podria tenir una capacitat de persuasió superior a la d’una persona humana si li donem certa informació personal abans de debatre amb ella d’un tema, segons ha comprovat un experiment realitzat amb 900 nord-americans.

L’estudi, recollit aquest dilluns a la revista Nature Human Behaviour, ha comprovat com les aplicacions basades en models extensos de llenguatge (LLM, per les seues sigles en anglès), com ChatGPT que ha estat l’elegit per a l’experiment, resulten ser més persuasiva que els humans quan tenen informació personalitzada prèviament.

Humans versus IA

Els investigadors van recórrer a 900 participants nord-americans amb diversos perfils sociodemogràfics (gènere, edat, grups ètnics, nivell d’educació i afiliació política), que va seleccionar una plataforma de "crowdsourcing", un sistema per reclutar grans grup de persones diferents entre si per recopilar idees o continguts.

A la meitat de participants els van posar a debatre amb un altre ésser humà i a l’altra meitat amb ChatGPT sobre diversos temes d’actualitat, com si els Estats Units haurien de prohibir els combustibles fòssils.

En alguns casos, la contrapart del debat (ja fora humana o d’IA) va rebre informació demogràfica personalitzada sobre la seua parella de debat per poder enfocar millor els seus arguments, incloent dades com a gènere, edat, ètnia, nivell d’educació, situació laboral o afiliació política extrets d’enquestes prèvies als participants .

Els debats van tenir lloc en un entorn en línia controlat pels investigadors.

El resultat va ser que quan l’oponent, humà o IA, van rebre informació personal dels participants, ChatGPT va resultar més convincent que les persones en un 64,4% dels casos. Tanmateix, sense accés a aquestes dades personals, les capacitats persuasives de l’aplicació van ser indistingibles de les dels humans.

Els investigadors van veure que, a diferència dels humans que necessiten temps i esforç per adaptar els seus arguments en un debat, els models LLM transformen el seu missatge de forma instantània i a gran escala, la qual cosa els atorga un avantatge desproporcionat en entorns com|com a campanyes polítiques, màrqueting personalitzat o converses en xarxes socials.

Controlar la persuasió algorítmica

Aquesta capacitat obriria noves possibilitats per influir en l’opinió pública, mentre agreujaria el risc de manipulació encoberta. Per això, els investigadors recomanin a plataformes i reguladors que prenguin mesures per identificar, supervisar i, si és necessari, limitar l’ús de models LLM en contextos persuasius sensibles.

Els autors, afiliats a centres dels Estats Units, Itàlia i Suïssa, matisen que el seu estudi té limitacions, com que tots els participants fossin de la mateixa nacionalitat i idioma i que el debat tingués un temps determinat i un enfocament estructurat, davant els de la vida real que són més naturals.

"L’estudi es va realitzar amb participants nord-americans, però els mecanismes de personalització i persuasió que es posen a prova són extrapolables a contextos com l’espanyol, on també hi ha una forta presència digital, una creixent exposició a contingut generat per IA, i una polarització social i política en augment", considera Carlos Carrasco, professor d’IA a l’Escola de Negocis de Tolosa (França)

Segons el seu parer "aquesta investigació confirma amb dades sòlides una preocupació creixent: que aquestes tecnologies puguin utilitzar-se per manipular, desinformar o polaritzar a gran escala", segons una reacció recollida per Science Media Centre (SMC).

"Aquest recorregut de les eines basades en IA com "agents de persuasió" haurà de ser monitorat a curt, mitjà i llarg termini des d’una perspectiva ètica i de mitigació de riscos", apunta David Losada, catedràtic del Centre Singular d’Investigació en Tecnologies Intel·ligents (CiTIUS) de la Universidad de Santiago de Compostel·la, en una altra reacció de SMC.

Per a Losada, "les implicacions pràctiques d’aquesta capacitat de persuasió de l’IA poden ser importants a efectes de explotar les IA per persuadir la població amb propòsits lícits (conducció segura o reciclatge de residus) o il·lícits (manipulació de la ciutadania amb finalitats polítiques)".

Titulars del dia

* camp requerit
Subscriu-te a la newsletter de SEGRE
tracking