¿Creerían que una IA le anticipó por error el Premio Nacional de Ciencias Aplicadas al Doctor en Informática Ricardo Baeza Yates? Ni más ni menos eso fue lo que sucedió. Les contamos cómo ocurrió.
Fuente: Radio Universidad de Chile, https://tinyurl.com/3xsp935j
La historia es la siguiente: el año pasado el distinguido académico e investigador le consultó a ChatGPT por su nombre. La IA le informó entre otros datos de que él era el ganador del “Premio Nacional de Ciencias Aplicadas” lo que evidentemente no era correcto.
¿Y qué pasó? Pues que el Profesor Baeza Yates ganó este 2024 tan prestigioso premio :-)
Al respecto dos comentarios: ¡muchas felicitaciones a Ricardo por lograr este reconocimiento!!!
Y el segundo: hasta donde sé es primera vez que un Informático obtiene esta distinción.
Lógicamente que ChatGPT se “adelantara” un año con la noticia es una coincidencia, pero no deja de ser curioso que haya sucedido.
Lo que hace la situación justamente muy única es que el campo donde más se ha destacado el Profesor Baeza Yates es: “la ética en torno al uso de la inteligencia artificial”. Y de hecho en la noticia publicada por la Radio de la Universidad de Chile menciona que: “El problema con estos sistemas es que pueden inventar cosas. Nunca te van a decir ‘no sé’ porque no están entrenados para decirte eso, sino para predecir algo que tenga que ver con lo que tú quieres saber, pero eso puede ser falso”.
Destaca además que la IA: “se está usando casi como si fuese una caja negra que no se entiende que es lo que hace y es más peligrosa por eso mismo”. En la misma línea menciona que en el ámbito de la justicia los datos “pueden representar el problema que estamos tratando de resolver y la verdad que los datos siempre representan solamente parte del problema”. Y explica que: “Mientras más complicado es el problema, los datos representan una parte más pequeña del problema. Por ejemplo, es muy difícil poner en datos el contexto social de una persona que cometió una falta judicial. Es muy difícil porque hay cosas que son relativas también, que dependen de las percepciones humanas”.
¿Interesante no? Cómo para no tomarnos tan en serio lo que la IA actual pueda “opinar” sobre ciertos temas.
Saludos cordiales.
Profesor Gerardo Cerda Neumann, Editor del Blog.
Comments