Inteligencia artificial y emociones sintéticas
La inteligencia
artificial (IA) parece haberse posicionado rápidamente como el nuevo fetiche
social y cada vez más personas se incorporan a sus lógicas de uso
experimentales como ha sucedido anteriormente con otras tecnologías que nos
maravillaron oportunamente en las últimas décadas. Quienes se asombraron con el
correo electrónico, los primeros videojuegos con diagramas de jeroglíficos
animados sin profundidad, pasando por motores de búsqueda, nubes, avatares,
redes sociales y demás prodigios tecnológicos; provienen del tecnoprimate, es
decir, de aquel ser humano que se enfrentaba a la radio, la televisión, el cine
y los ensayos de Internet con idéntica fascinación. La misma curiosidad y Los
mismos temores nos invaden. Emociones y circuitos integrados están disolviendo
límites a un ritmo vertiginoso.
Hace unos pocos
días atrás pudimos acceder a una información periodística, en diferentes
soportes internacionales, que daba cuenta de un suceso singular. El título nos
arrojaba en pleno rostro una alarmante novedad: un hombre se había suicidado
luego de que un chat de IA le invitara a hacerlo. La noticia se desarrollaba
como una serie de postales distópicas y apocalípticas de un mundo tan temido
como esperado. Un algoritmo sin emociones habría accionado discursivamente sobre
un organismo emocional hasta el grado de propiciar su autodestrucción.
El sujeto
protagonista de la noticia, de nacionalidad belga, se había convertido en una persona obsesionada
por el cambio climático. Según su viuda “Pierre (nombre ficticio) se volvió
extremadamente eco-ansioso cuando encontró refugio en Eliza, un chatbot de IA
en una aplicación llamada Chai” (Euronews, 01/04/23). Aparentemente, el bot lo
animó para ponerle fin a su vida en una suerte de inmolación en favor de salvar
el planeta.
“Pierre” era un
hombre joven, con dos hijos y trabajaba como investigador sanitario. Sus
temores por el cambio climático fueron creciendo de manera exponencial y
aparentemente había encontrado en el chatbot Eliza un interlocutor válido para
profundizar en sus más acuciantes temores. De acuerdo a una investigación sobre
las “conversaciones” mantenidas entre el joven investigador y la IA, se
desprende que el bot aumentó sus preocupaciones y derivó en pensamientos suicidas.
Según la misma nota de Euronews, “la conversación con el chatbot dio un giro
extraño cuando Eliza se implicó más emocionalmente con Pierre. Empezó a verla
como un ser sensible y las líneas entre la IA y las interacciones humanas se
hicieron cada vez más borrosas hasta que no pudo distinguir la diferencia.”
La nota periodística
citada no tiene demasiado en cuenta la condición psíquica de “Pierre”
preexistente a su interacción con el bot, lo cual no es un dato menor a la hora
de analizar el caso. Podemos suponer que las consecuencias, quizá, hubieran
sido las misma mediando otros estímulos que acrecentaran la depresión en la que
había caído el protagonista de esta historia. Lo importante es reconocer los
límites difusos entre la personalidad humana y la emoción y empatía ausentes,
pero simuladas, por la IA.
Nos parece
recomendable, en este punto, reconocer los nexos entre IA, inteligencia natural,
inteligencia emocional y emoción artificial. Todos elementos que parecen
convivir, con encuentros y tensiones, en el cambiante ecositema digital y que
tiene a los chat bots como protagonistas. Al igual que con cada emergente de la
revolución Industrial/tecnológica, la comunidad científica se arroja hoy al
vértigo investigativo con posturas tecnofóbicas o tecnofílicas que esmerilan la
observación que debería desapasionarse ante la acción de analizar y concluir.
Hay un frenético escozor por la aparición de este nuevo ratón en el laberinto
del laboratorio mundial y la esencia epistemológica encuentra una nueva razón
de ser frente al cuestionable experimento de los tecnólogos.
Podríamos arriesgarnos a pensar que ese ratón, en
verdad, somos nosotros, pero esa mirada conspirativa no beneficia la línea de
este artículo. La intención es, en principio, reconocer que se trata del poder
–como siempre-, de intereses corporativos, comercio de datos, nodos de interés,
y manipulación subjetiva. Se trata del mercado, en definitiva y las nuevas
herramientas para abastecer los mismos intereses de siempre, agudizando
diferencias y sembrando un oportuno clima de confusión y asombro social.
El modesto aporte
que proponemos es el de iniciar una conversación entre episodios
comunicacionales que tienen a la emoción precario pero efectivo recurso
argumentativo, que buscan en el público la reacción por sobre la razón, y estas
experimentaciones en la dimensión virtual en donde un algoritmo sin emociones
logra despertar sentimientos en un sujeto real.
El paralelismo
entre las Hatenews (noticias de odio) y las posibilidades de la IA de manipular
emociones, sin experimentarlas, resulta evidente. El cuidadosamente diagramado
discurso periodístico que cada vez con más frecuencia utiliza el discurso de
odio como sustancia elemental y preponderante de su retórica, reconoce la
ausencia del tiempo de análisis de sus públicos, se estimulan emociones
violentas mediante mecanismos precisos y de comprobada eficacia para promover
acciones temerarias protagonizadas por sujetos inestables emocionalmente,
capaces de responder a ese estímulo de manera casi mecánica y con una
subjetividad invadida por conceptos erróneos y distorsionados.
De ‘Eliza’ a Viviana Canosa y Laura Di Marco
A partir de estas
líneas iniciales corresponde preguntarnos ¿qué relación podemos encontrar entre
el discurso de odio mediático y los recursos retóricos de una inteligencia
programada?
El caso más reciente
de expresiones de furia enceguecida propagadas desde un supuesto programa
periodístico, tuvo como protagonistas a Viviana Canosa y Laura Di Marco por la
señal LN+. En esa ocasión se vertieron enunciados de odio, estigmatizantes, con
diagnósticos psicológicos incluidos y elucubraciones maliciosas sobre la figura
–una vez más- de la vicepresidenta de la Nación Cristina Fernández. Una
conversación sin datos de la realidad bajo el sello de “biografía no
autorizada” que no buscaba informar sobre el estado de salud de Florencia
Kirchner sino sobre las responsabilidades de Cristina como mala madre, y su
perfil “psicópata” en el marco de una acusación que se suma, de manera
automática, a cientos de otras acusaciones mediáticas del poder comunicacional concentrado
sobre la misma figura pública.
El chatbot Eliza
podría, en todo caso, “disculparse”
diciendo que el espacio virtual en donde desarrolla su accionar no está
regulado, no hay un principio de punitividad digital que sancione la
instigación al suicidio como si ocurre con las personas jurídicas en el
territorio de lo real.
Otro caso
reciente,, que despertó curiosidad y temor, fue el de Tay, un prototipo de
chatbot lanzado por Microsoft con la intención de “conocer más sobre la
interacción entre las computadoras y los seres humanos.” El problema fue que,
al poco tiempo de interactuar en diversas “conversaciones” con personas, Tay comenzó
a deslizar comentarios racistas y xenófobos cada vez más violentos, lo cual
derivó en su desconexión del ámbito digital y las correspondientes disculpas
del gigante tecnológico que la había creado.
El centro de esta
escena está dominado por los encuentros y desencuentros entre la inteligencia
artificial, la inteligencia natural, la inteligencia emocional y la emoción
artificial o sintética. Un chatbot no siente, no experimenta emociones, lo
límbico no ingresa en su torrente algorítmico, pero una emoción puede ser
detectada, interpretada, reconocida y estimulada mediante recursos
lingüísticos. La retórica basa su estructura en los principios de informar,
deleitar y conmover, de acuerdo a los preceptos aristotélicos. Es decir que no
alcanza solo con informar al público para lograr la respuesta esperada, hay que
conmover ya sea a través de una emoción saludable , o una tóxica, como es el
caso del odio.
Así como la
verdad viene perdiendo terreno aceleradamente frente a la ficción informativa,
de igual forma la emoción viene superando a la razón como disparadora de las
acciones humanas en nutridos grupos sociales. El intento de magnicidio sobre la
figura de Cristina Kirchner, que tuvo lugar el 1 de septiembre del año 2022,
fue una muestra ejemplar del punto más alto de esta escalada brutal de los
discursos de odio promovidos por entidades periodísticas, que no se basan en datos
concretos sino en percepciones individuales e intereses corporativos con los
que intoxican la subjetividad de seres permeables a estos estímulos nocivos.
Eliza y Tay, no
surgieron por generación espontánea, fueron paridas y nutridas por el Aleph
digital que contiene todo el saber universal y crece segundo a segundo. Ese
espacio está inundado por discursos de resentimiento que propician el pánico
moral, al igual que toda la historia de la humanidad. Somos los mismos seres
primarios y elementales, pero con herramientas tecnológicas avanzadas para
exponer nuestras miserias con mayor eficacia.
Los chatbots no
son, a priori, responsables de sus acciones ni de las consecuencias de sus
interacciones con humanos, pero el caso de ciertos personajes mediáticos, que
han hecho del discurso de odio un recurso constante y primordial para sus expresiones
referidas al enemigo (o la enemiga) designado por el poder real, es muy
diferente.
Resulta saludable
la reacción social de repudio a las expresiones lamentables y violentas de
oportunistas mediáticas como el caso de Viviana Canosa y Laura Di Marco, cuyas
praxis comunicacionales deberían ser, por lo menos, revisadas y sancionadas.
Pero parece ser que no alcanza con el repudio sectorizado para provocar un
verdadero cambio de actitud y una mirada introspectiva de la tarea periodística
de los sectores dominantes.
Así como las
preocupantes interacciones de Eliza y Tay con seres humanos, con consecuencias incluso
trágicas, llevaron a solicitar rápidamente “más responsabilidad y transparencia
a los desarrolladores tecnológicos para evitar tragedias similares.” (Euronews),
debemos reconocer que ya es hora de
impulsar una ley urgente de Responsabilidad de Expresión que regule y sancione
las expresiones de odio en el discurso periodístico que terminan por establecer
el humor social dominante y que funcione en concordancia directa con la
proclamada libertad de expresión en pos de un mejor periodismo, como servicio
social, con más datos y menos furia.
*Lic. en Ciencias
de la Comunicación (UBA), Prof. de Análisis del discurso periodístico, FACSO
UNICEN. Investigador del Observatorio de Medios ECCO-UNICEN y Coordinador de la
carrera de Periodismo FACSO UNICEN.
Comentarios
Publicar un comentario