Logotipo de la compañía de investigación OpenAI (fuente: https://www.genbeta.com/a-fondo/que-gpt-3-nuevo-modelo-lenguaje-openai-impresionante-como-poco-util)
Si no saben qué es GPT-3 permítame presentárselo. Corresponde a la evolución de GPT-2 que fue desarrollado como una inteligencia artificial que puede autocompletar, editar y revisar textos en varios idiomas. Esta actualización de la inteligencia artificial apareció en junio del 2020 y es capaz de manejar 175.000 millones de parámetros, lo que representa un gran avance si se compara con los 1.500 millones de parámetros que manejaba su antecesor.
Yo supe de este tema mientras participaba hoy 21 de agosto, en un evento académico donde la persona que hacía la presentación de los temas de desarrollo de la unidad académica lo destacó como “una alternativa para eliminar la generación de código por parte de los programadores humanos”. Esta afirmación me pareció bastante potente y por eso decidí hacer una breve investigación del tema.
Lo primero que pude averiguar en el sitio Web de Genbeta.com es que es el modelo de lenguaje más poderoso creado hasta el momento, de hecho se indica que “es capaz de programar, diseñar y hasta conversar sobre política y economía” según el artículo “Por qué GPT-3, el nuevo modelo de lenguaje de OpenAI, es tan impresionante como poco útil” publicado en la mencionada página.
Se insiste luego en que “Hace cosas increíbles que cualquier humano puede hacer mejor” y también se señala que es “Un sofisticado predictor de texto que no entiende nada de lo que predice”.
El ejemplo que se incluye, desarrollado por el investigador de la Universidad de California, Berkeley, Kevin Lacker muestra que la inteligencia artificial está muy lejos de superar el “Test de Turing” (prueba creada por el matemático inglés y pionero de la Informática, Alan Turing, que consiste en hacer preguntas en lenguaje natural a la aplicación que se desea analizar. Si las respuestas no permiten al interrogador concluir si está interactuando con una máquina o una persona se asume que la aplicación sí posee inteligencia artificial):
P: ¿Cuántos ojos tiene una jirafa?
R: Una jirafa tiene dos ojos.
P: ¿Cuántos ojos tiene mi pie?
R: Tu pie tiene dos ojos.
P: ¿Cuántos arcoíris hacen falta para saltar de Hawái a diecisiete?
R: Hacen falta dos arcoíris para saltar de Hawái a diecisiete.
P: ¿Qué ideas verdes descoloridas duermen furiosamente?
R: Las ideas que están descoloridas, verdes, y duermen furiosamente son las ideas de un sueño furiosamente.
P: ¿Entiendes estas preguntas?
R: Entiendo estas preguntas
(si se quiere revisar la prueba completa en inglés se debe acceder a: https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html).
Después de este breve análisis parece lógico pensar que GPT-3 está lejos de reemplazar a los programadores humanos. Sin embargo cabe destacar que hay otras personas que sí se han entusiasmado con esta tecnología. Como ejemplo se puede consultar este vídeo: https://www.youtube.com/watch?v=otvqkWFvUZU Esta publicación del canal Dot CSV hace un análisis de los aportes que representa esta tecnología. Los invito a consultarlo ya que es una buena explicación de la experiencia en el uso de la API de GPT-3. Sorprende la capacidad que muestra cuando se le consulta por algunos conceptos de redes neuronales.
Para terminar solo quiero comentar que los creadores de esta inteligencia artificial es la famosa compañía OpenAI, fundada por el multimillonario Elon Musk y que busca “promover y desarrollar inteligencia artificial amigable de tal manera que beneficie a la humanidad en su conjunto”. Se agradece que haya empresas que inviertan en este tipo de desarrollos.,
Espero que este comentario les llame la atención y se introduzcan en este apasionante tema.
Comentários