Inteligencia artificial y emociones sintéticas

 


La inteligencia artificial (IA) parece haberse posicionado rápidamente como el nuevo fetiche social y cada vez más personas se incorporan a sus lógicas de uso experimentales como ha sucedido anteriormente con otras tecnologías que nos maravillaron oportunamente en las últimas décadas. Quienes se asombraron con el correo electrónico, los primeros videojuegos con diagramas de jeroglíficos animados sin profundidad, pasando por motores de búsqueda, nubes, avatares, redes sociales y demás prodigios tecnológicos; provienen del tecnoprimate, es decir, de aquel ser humano que se enfrentaba a la radio, la televisión, el cine y los ensayos de Internet con idéntica fascinación. La misma curiosidad y Los mismos temores nos invaden. Emociones y circuitos integrados están disolviendo límites a un ritmo vertiginoso.

Hace unos pocos días atrás pudimos acceder a una información periodística, en diferentes soportes internacionales, que daba cuenta de un suceso singular. El título nos arrojaba en pleno rostro una alarmante novedad: un hombre se había suicidado luego de que un chat de IA le invitara a hacerlo. La noticia se desarrollaba como una serie de postales distópicas y apocalípticas de un mundo tan temido como esperado. Un algoritmo sin emociones habría accionado discursivamente sobre un organismo emocional hasta el grado de propiciar su autodestrucción.

El sujeto protagonista de la noticia, de nacionalidad belga,  se había convertido en una persona obsesionada por el cambio climático. Según su viuda “Pierre (nombre ficticio) se volvió extremadamente eco-ansioso cuando encontró refugio en Eliza, un chatbot de IA en una aplicación llamada Chai” (Euronews, 01/04/23). Aparentemente, el bot lo animó para ponerle fin a su vida en una suerte de inmolación en favor de salvar el planeta.

“Pierre” era un hombre joven, con dos hijos y trabajaba como investigador sanitario. Sus temores por el cambio climático fueron creciendo de manera exponencial y aparentemente había encontrado en el chatbot Eliza un interlocutor válido para profundizar en sus más acuciantes temores. De acuerdo a una investigación sobre las “conversaciones” mantenidas entre el joven investigador y la IA, se desprende que el bot aumentó sus preocupaciones y derivó en pensamientos suicidas. Según la misma nota de Euronews, “la conversación con el chatbot dio un giro extraño cuando Eliza se implicó más emocionalmente con Pierre. Empezó a verla como un ser sensible y las líneas entre la IA y las interacciones humanas se hicieron cada vez más borrosas hasta que no pudo distinguir la diferencia.”

La nota periodística citada no tiene demasiado en cuenta la condición psíquica de “Pierre” preexistente a su interacción con el bot, lo cual no es un dato menor a la hora de analizar el caso. Podemos suponer que las consecuencias, quizá, hubieran sido las misma mediando otros estímulos que acrecentaran la depresión en la que había caído el protagonista de esta historia. Lo importante es reconocer los límites difusos entre la personalidad humana y la emoción y empatía ausentes, pero simuladas, por la IA.

Nos parece recomendable, en este punto, reconocer los nexos entre IA, inteligencia natural, inteligencia emocional y emoción artificial. Todos elementos que parecen convivir, con encuentros y tensiones, en el cambiante ecositema digital y que tiene a los chat bots como protagonistas. Al igual que con cada emergente de la revolución Industrial/tecnológica, la comunidad científica se arroja hoy al vértigo investigativo con posturas tecnofóbicas o tecnofílicas que esmerilan la observación que debería desapasionarse ante la acción de analizar y concluir. Hay un frenético escozor por la aparición de este nuevo ratón en el laberinto del laboratorio mundial y la esencia epistemológica encuentra una nueva razón de ser frente al cuestionable experimento de los tecnólogos.

Podríamos  arriesgarnos a pensar que ese ratón, en verdad, somos nosotros, pero esa mirada conspirativa no beneficia la línea de este artículo. La intención es, en principio, reconocer que se trata del poder –como siempre-, de intereses corporativos, comercio de datos, nodos de interés, y manipulación subjetiva. Se trata del mercado, en definitiva y las nuevas herramientas para abastecer los mismos intereses de siempre, agudizando diferencias y sembrando un oportuno clima de confusión y asombro social.

El modesto aporte que proponemos es el de iniciar una conversación entre episodios comunicacionales que tienen a la emoción precario pero efectivo recurso argumentativo, que buscan en el público la reacción por sobre la razón, y estas experimentaciones en la dimensión virtual en donde un algoritmo sin emociones logra despertar sentimientos en un sujeto real.

El paralelismo entre las Hatenews (noticias de odio) y las posibilidades de la IA de manipular emociones, sin experimentarlas, resulta evidente. El cuidadosamente diagramado discurso periodístico que cada vez con más frecuencia utiliza el discurso de odio como sustancia elemental y preponderante de su retórica, reconoce la ausencia del tiempo de análisis de sus públicos, se estimulan emociones violentas mediante mecanismos precisos y de comprobada eficacia para promover acciones temerarias protagonizadas por sujetos inestables emocionalmente, capaces de responder a ese estímulo de manera casi mecánica y con una subjetividad invadida por conceptos erróneos y distorsionados.

De ‘Eliza’ a Viviana Canosa y Laura Di Marco


A partir de estas líneas iniciales corresponde preguntarnos ¿qué relación podemos encontrar entre el discurso de odio mediático y los recursos retóricos de una inteligencia programada?

El caso más reciente de expresiones de furia enceguecida propagadas desde un supuesto programa periodístico, tuvo como protagonistas a Viviana Canosa y Laura Di Marco por la señal LN+. En esa ocasión se vertieron enunciados de odio, estigmatizantes, con diagnósticos psicológicos incluidos y elucubraciones maliciosas sobre la figura –una vez más- de la vicepresidenta de la Nación Cristina Fernández. Una conversación sin datos de la realidad bajo el sello de “biografía no autorizada” que no buscaba informar sobre el estado de salud de Florencia Kirchner sino sobre las responsabilidades de Cristina como mala madre, y su perfil “psicópata” en el marco de una acusación que se suma, de manera automática, a cientos de otras acusaciones mediáticas del poder comunicacional concentrado sobre la misma figura pública.

El chatbot Eliza podría, en todo caso,  “disculparse” diciendo que el espacio virtual en donde desarrolla su accionar no está regulado, no hay un principio de punitividad digital que sancione la instigación al suicidio como si ocurre con las personas jurídicas en el territorio de lo real.

Otro caso reciente,, que despertó curiosidad y temor, fue el de Tay, un prototipo de chatbot lanzado por Microsoft con la intención de “conocer más sobre la interacción entre las computadoras y los seres humanos.” El problema fue que, al poco tiempo de interactuar en diversas “conversaciones” con personas, Tay comenzó a deslizar comentarios racistas y xenófobos cada vez más violentos, lo cual derivó en su desconexión del ámbito digital y las correspondientes disculpas del gigante tecnológico que la había creado.

El centro de esta escena está dominado por los encuentros y desencuentros entre la inteligencia artificial, la inteligencia natural, la inteligencia emocional y la emoción artificial o sintética. Un chatbot no siente, no experimenta emociones, lo límbico no ingresa en su torrente algorítmico, pero una emoción puede ser detectada, interpretada, reconocida y estimulada mediante recursos lingüísticos. La retórica basa su estructura en los principios de informar, deleitar y conmover, de acuerdo a los preceptos aristotélicos. Es decir que no alcanza solo con informar al público para lograr la respuesta esperada, hay que conmover ya sea a través de una emoción saludable , o una tóxica, como es el caso del odio.

Así como la verdad viene perdiendo terreno aceleradamente frente a la ficción informativa, de igual forma la emoción viene superando a la razón como disparadora de las acciones humanas en nutridos grupos sociales. El intento de magnicidio sobre la figura de Cristina Kirchner, que tuvo lugar el 1 de septiembre del año 2022, fue una muestra ejemplar del punto más alto de esta escalada brutal de los discursos de odio promovidos por entidades periodísticas, que no se basan en datos concretos sino en percepciones individuales e intereses corporativos con los que intoxican la subjetividad de seres permeables a estos estímulos nocivos.

Eliza y Tay, no surgieron por generación espontánea, fueron paridas y nutridas por el Aleph digital que contiene todo el saber universal y crece segundo a segundo. Ese espacio está inundado por discursos de resentimiento que propician el pánico moral, al igual que toda la historia de la humanidad. Somos los mismos seres primarios y elementales, pero con herramientas tecnológicas avanzadas para exponer nuestras miserias con mayor eficacia.

Los chatbots no son, a priori, responsables de sus acciones ni de las consecuencias de sus interacciones con humanos, pero el caso de ciertos personajes mediáticos, que han hecho del discurso de odio un recurso constante y primordial para sus expresiones referidas al enemigo (o la enemiga) designado por el poder real, es muy diferente.

Resulta saludable la reacción social de repudio a las expresiones lamentables y violentas de oportunistas mediáticas como el caso de Viviana Canosa y Laura Di Marco, cuyas praxis comunicacionales deberían ser, por lo menos, revisadas y sancionadas. Pero parece ser que no alcanza con el repudio sectorizado para provocar un verdadero cambio de actitud y una mirada introspectiva de la tarea periodística de los sectores dominantes.

Así como las preocupantes interacciones de Eliza y Tay con seres humanos, con consecuencias incluso trágicas, llevaron a solicitar rápidamente “más responsabilidad y transparencia a los desarrolladores tecnológicos para evitar tragedias similares.” (Euronews),  debemos reconocer que ya es hora de impulsar una ley urgente de Responsabilidad de Expresión que regule y sancione las expresiones de odio en el discurso periodístico que terminan por establecer el humor social dominante y que funcione en concordancia directa con la proclamada libertad de expresión en pos de un mejor periodismo, como servicio social, con más datos y menos furia.

                                                                                 

*Lic. en Ciencias de la Comunicación (UBA), Prof. de Análisis del discurso periodístico, FACSO UNICEN. Investigador del Observatorio de Medios ECCO-UNICEN y Coordinador de la carrera de Periodismo FACSO UNICEN.


Comentarios

Entradas populares