top of page

¿Inteligencias artificiales tóxicas?

¿Será posible que una IA me afecte negativamente en la vida? Nuestro Colaborador Enrique San Juan analiza esta posibilidad en base a su experiencia, los invito a conocer su punto de vista.

Seguro que conoces a más de una persona "tóxica", que son aquellas cuyo comportamiento genera un sentimiento negativo o una emoción desagradable en los demás. Puede que a priori parezcan personas positivas, pero en realidad su forma de ser y de interactuar genera un profundo malestar en aquellos que las rodean.


A veces no nos queda más remedio que interactuar con este tipo de personas, ya sea porque se encuentran muy próximas a nosotros o porque forman parte de nuestro entorno laborar, ya se trate de jefes, colegas o clientes.


Pero ahora, ese círculo de relaciones se acaba de ampliar con los asistentes de Inteligencia Artificial, sistemas que se comportan como humanos en sus interacciones (pudiendo llegar a ser desde muy amables a muy desagradables, tóxicos).


Chat de Bing, ¿un modelo tóxico de IA?


Dado que mi tarea profesional me lleva a investigar diferentes aplicaciones digitales, estos días he estado probando la función de chat de Bing, el buscador de Microsoft.


En teoría, la función de chat es una adaptación del famoso ChatGPT para Microsoft, pero tras unas cuantas pruebas, podría decir que en ocasiones Bing presenta rasgos de personalidad "tóxica" en su relación con el usuario, comportamientos que no se dan en el caso de ChatGPT.


Le pedí al chat de Bing que redactara un post de 300 palabras sobre consejos para viajar a Chile. Redactó tres párrafos, que parecían cortos, y lo dio por concluido. Le pregunté cuántas palabras había escrito y me respondió que 174. Le volví a decir que escribiera 300 palabras. Se disculpó por la confusión y volvió a escribir unas 170 palabras, tras lo cual le pregunté cómo es que había vuelto a escribir menos palabras de las solicitadas.


Su contestación es la imagen que ilustra este post, tras lo cual cerró el tema (la conversación), sin permitirme seguir adelante. Es decir, se ofendió y se marchó de la sala dando un portazo.


De la función a la emoción.


Si miras la respuesta del chat podrías pensar "Habría que ver qué le dijiste", respuesta clásica cuando le cuentas un incidente personal a un amigo, por ejemplo (fijémonos en qué nivel estamos hablando ahora...). A título aclaratorio recalco que no fue más que la pregunta de por qué había escrito 170 en lugar de 300 por segunda vez.


Sea como fuere, en ese punto ya no estábamos trabajando, sino discutiendo y emocionalmente afectados (al menos yo); de la misma forma como ocurriría con una persona que te contesta mal sin motivo (y te deja con cara de sorpresa y un malestar dando vueltas en tu interior).


Es en este punto en el que pienso que hay muchas situaciones tóxicas con las que nos toca lidiar en nuestra vida para que, además, ahora se le sumen comportamientos altivos, groseros y tóxicos por parte de las IAs.


Los desarrolladores de estos sistemas, y en ese caso Microsoft, deberían tener especial cuidado en entrenar a sus IAs para comportarse siempre de forma positiva, correcta y cortés frente a sus usuarios.


¿No te parece?


Nota de Editor: pueden ver la propuesta de Enrique capacitación en el siguiente Link:


Si quieren contactarlo por LinkedIn lo pueden hacer aquí:


21 visualizaciones0 comentarios
bottom of page