PATROCINADORES
INSTITUCIONES
Junta castilla
jcm

Archiletras

Isabel Durán

22 Abr 2019
Compartir
Firmas

El lenguaje (sesgado) de la Inteligencia Artificial

Hola a todos. Soy un presentador de noticias de inteligencia artificial. Es mi primer día en la agencia de noticias Xinhua. Mi voz y mis gestos están programados». Estas son las primeras palabras del primer presentador de televisión del mundo que no es un humano, es un robot hecho con inteligencia artificial (IA). Trabaja para la agencia oficial del Gobierno chino y debutó como presentador estrella de la televisión el 8 de noviembre de 2018 en la World Internet Conference (Conferencia Mundial de Internet) celebrada en Wuzhen, la milenaria ciudad de los canales del sur de China. Tiene sexo masculino, se llama Él. Su inteligencia aprende de los vídeos y de los directos y se alimenta de las propias noticias. El presentador «ahora es un miembro de nuestro equipo y puede trabajar 24 horas al día reduciendo los costes y mejorando la eficiencia», afirma la agencia de noticias. Él no recibe un salario, y su voz y su apariencia están clonadas de Zhang Zhao, un presentador televisivo de carne y hueso.

Hay a quien le preocupa la posibilidad de que los robots nos quiten el trabajo a los humanos, un recelo creciente cuando los androides adquieren aspecto físico, gestos, voz y expresiones idénticos a los de los humanos. Al menos eso es lo que señala la «teoría del valle inquietante», del profesor Masahiro Mori, que afirma que cuando los seres humanos percibimos a otro ente con una forma que recuerda a nuestra propia fisionomía, mostramos una gradual respuesta positiva. Por contra, si el parecido resulta demasiado realista, la curva de satisfacción cae repentinamente y experimentamos un profundo rechazo.

Otra de las habituales cuestiones que producen intranquilidad es la preocupación de que los robots superen a la inteligencia humana, la llamada singularidad, que para algunos se conseguirá en veinte o treinta años y, para otros, esa superinteligencia artificial no llegará nunca. Está por ver. Lo cierto es que la carrera por fabricar máquinas inteligentes está encontrándose obstáculos importantes que empiezan por el propio lenguaje y los sesgos que adquiere la IA debido, entre otras cuestiones, a la forma en la que aprenden las máquinas a través de las técnicas de machine learning o aprendizaje automático y deep learning o aprendizaje profundo de redes neuronales.

A pesar de los grandes avances realizados por la IA y aunque el flamante periodista virtual chino pueda presentar noticias en tiempo real mediante fusión de detección de imagen, capacidad de anticipación y síntesis de voz, lo que pocos imaginan es que si «Él» redactara las noticias que presenta en sus informativos sin ningún tipo de intervención humana acabaría, casi con toda probabilidad, convirtiéndose en un presentador bárbaro, sexista, xenófobo y racista. Al menos eso es lo que ha ocurrido con otras inteligencias artificiales que han sido lanzadas en distintas plataformas simulando ser personas.

El 23 de marzo de 2016 nacía en Twitter una robot virtual de IA llamada Tay. Creada por Microsoft, su misión era aprender el lenguaje de los jóvenes para interactuar con ellos en la red del pájaro azul convirtiéndose en su animadora. El objetivo, según explicó la compañía, era crear un programa informático para mantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años. Se trataba de un experimento de Microsoft para conocer más sobre la interacción entre humanos y máquinas. Mientras los usuarios se podrían entretener interactuando con el chatbot a través de la cuenta @TayandYou, ellos investigarían cómo la inteligencia artificial aprende de la conversación. El experimento parecía sencillo, pero en realidad era una de las apuestas investigadoras en IA más avanzadas de ese momento en ese terreno.

Tay había sido diseñada con la mentalidad de una joven de 19 años con una simpleza intelectual prefabricada ex profeso para evitar que pudiera comprometer a la compañía en espinosos y delicados debates. Si alguien le preguntaba a la joven virtual amante de los cachorros sobre asuntos religiosos, políticos o sexuales, tenía programadas respuestas generalistas, triviales y evasivas. Al tratarse de un bot de lo más evolucionado, tenía capacidad de aprendizaje o, lo que es lo mismo, estaba programada para ir almacenando y procesando datos de las conversaciones con los que perfeccionar cada vez más su habla y actitudes propias de los millenials que la irían convirtiendo en una tuitera a imagen y semejanza de los jóvenes de carne y hueso.

La sorpresa llegó cuando, en cuestión de horas, la cándida robot tuitera evolucionó hasta convertirse en una bestia parda. Sus agresivos insultos contra las feministas, sus loas a Hitler, su negación del holocausto y apoyo al genocidio, además de sus soeces y procaces ofrecimientos sexuales, entre otras lindezas, hicieron que Microsoft tuviera que borrar o editar de inmediato los ofensivos tuits. La estupefacción en la sede de Redmond fue total. Microsoft había pasado por alto que internet está llena de trols, es decir, camorristas que pretenden provocar respuestas emocionales negativas y lograr el enfado y enfrentamiento de los usuarios. El resultado fue el contrario del pretendido debido a que una horda de troles concertados enseñaron a odiar a la computadora. En menos de 24 horas la compañía suspendió la cuenta «para realizar ajustes» después de que hubiera publicado más de 96.000 tuits. Tras una vuelta accidental de unas horas, la cuenta fue dada de baja definitivamente.

 

Este artículo de Isabel Durán, periodista y escritora, es uno de los contenidos del número 2 de la publicación trimestral impresa Archiletras / Revista de Lengua y Letras.
Si desea suscribirse o adquirir números sueltos de la revista, puede hacerlo aquí https://suscripciones. archiletras.com/