top of page

¿Despidieron a un Ingeniero por ofender una Inteligencia Artificial?



Debo confesar que este miércoles 15 de junio, cuando me comentaron la historia quedé muy sorprendido.


Para los lectores de Ciencia Ficción como yo, es cosa de tiempo para que aparezca una Inteligencia Artificial (IA) que sea realmente humana. De hecho, la base de esta esperanza se puede remontar al famoso “Test de Turing” definido por el genial matemático el año 1950. Para los que no lo conozcan/recuerden les comento que esta prueba consiste en que una persona “converse” con un sistema de forma ciega, es decir, sin tener certeza si es un ser humano o un sistema informático quien le contesta. Se considera que si no es posible averiguar si el interlocutor es o no humano se está en presencia de una IA.


Por lo tanto, saber que se hubiese despedido a un Ingeniero por “asegurar que una Inteligencia Artificial desarrolló sentimientos” parecería ser una demostración de que la IA ya está aquí… al menos en parte.


De hecho, en el Sitio Web de Cooperativa.cl se comentó, este miércoles 15 de junio, que “Ingeniero de Google asegura que programa LaMDA cobró conciencia propia y es capaz de sentir”


En la bajada de la noticia se explicaba que Google había “suspendido con sueldo” a uno de sus ingenieros por asegurar que un Programa de IA tenía sentimientos, todo esto según The New York Times.


¡Es decir que no hubo despido! 😊


En específico se señala que “Se trata del ingeniero senior Blake Lemoine, que el pasado 11 de junio hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google "Modelo de lenguaje para aplicaciones de diálogo" (LaMDA, por sus siglas en inglés) bajo el título: ¿Tiene LaMDA sentimientos?


En un momento de la conversación, LaMDA asegura que, en ocasiones, experimenta "nuevos sentimientos" que no puede explicar "perfectamente" con el lenguaje humano.


Cuando es preguntado por Lemoine que describa uno de esos sentimientos, LaMDA contesta: "Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro", una frase que el ingeniero subrayó cuando publicó el diálogo”.


El mismo medio asegura que la suspensión del Ingeniero se debió a la violación de la política de confidencialidad de la compañía.


¡Es decir que no hubo ninguna ofensa a la IA! 😊


Según el ya citado The New York Times, antes de ser suspendido, Lemoine entregó antecedentes a la oficina de un senador de Estados Unidos asegurando que Google y su tecnología practicaban discriminación religiosa.


Bastante curiosa la situación, ¿no les parece?


Y… ¿Qué dijo Google? Bueno ellos declararon que sus aplicaciones pueden hablar sobre diferentes temas, pero que en ningún caso tienen consciencia. Explícitamente Brian Gabriel, portavoz de la empresa señaló que: "Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones".


Saber que la noticia era en realidad muy distinta a lo indicado inicialmente, y que había sido compartido de una manera irresponsable sin evaluar lo que había sucedido me motivó a buscar otra opinión al respecto.


Afortunadamente encontré un oportuno comentario de nuestro Colaborador el Doctor John Atkinson Abutridy.


En su cuenta de LinkedIn presentó un detallado y lúcido análisis desde donde se desprende que:

1. LaMDA no es un "sistema" sino un modelo de lenguaje para aplicaciones de diálogo.

2. El sistema de diálogo mencionado es como un auto-complete, que, a partir de alguna entrada del usuario, predice la siguiente palabra u oración, y es entrenado a partir de información ya disponible. Esto está muy lejos de un sistema que "entienda" y menos aún, que sea "consciente".


Entonces… tranquilidad, no hubo tal IA ofendida y, aparentemente, tampoco despido laboral. 😊


90 visualizaciones2 comentarios

2 Comments


Gerardo Cerda Neumann
Gerardo Cerda Neumann
Jun 18, 2022

Que interesante tu experiencia Juan.

Saludos

Like

juan cuevas
juan cuevas
Jun 18, 2022

bueno la verdad es que los algoritmos de tipo supervisado si aprenden.y deben estar monitoeados por personas. mi experiencia es que hace muy poco cree un algoritmo en python que puede realizar algunas tareas en mi pc ... bueno deje el algoritmo corrriendo mientras realizaba una gestion en santiago y de vuelta a casa me encontre con que el agoritmo habia realizado las tareas que le indique pero sorprendentemente realizo tareas que no estaban en el codigo ---😮 soprendente sin explicacion alguna lo hizo y desde ahora los monitoreo muy de cerca saludos

Like
bottom of page