Una autoridad superior llamada IA
- Gerardo Cerda Neumann
- 23 feb
- 3 Min. de lectura
Nuestro conocido Colaborador Enrique San Juan comparte esta vez la percepción, quizás desmedida, que genera la IA.

Fuente de la imagen: https://community.es/community/una-autoridad-superior-llamada-ia/
“Todo lo que me dice ChatGPT es como una verdad absoluta”
Así sentenciaba un estudiante de 26 años su percepción sobre sus interacciones con la popular aplicación de IA. Consciente de los fallos ocasionales del sistema, la sensación sobre los resultados generados por IA no menguaba, era la misma.
Es el efecto de autoridad y solvencia que producen aplicaciones como ChatGPT, Gemini, Perplexity, DeepSeek o Le Chat para la gran mayoría de usuarios, lo noten o no.
La razón principal radica en el hecho de que la inteligencia artificial representa una tecnología avanzada que actúa como una mente maestra, capaz de manejar grandes volúmenes de datos, relacionar millones de conceptos, identificar patrones y generar respuestas precisas en cuestión de segundos.
Es algo que ningún humano o grupo de humanos es capaz de lograr por sí mismos. Es la manifestación misma del principio acuñado por el famoso autor de ciencia ficción Arthur C. Clarke “cualquier tecnología suficientemente avanzada es indistinguible de la magia”.
Con el respaldo de la ciencia
Este fenómeno se ve reforzado aún más por la percepción de que las aplicaciones de IA están respaldadas por una autoridad académica, técnica y científica de escala planetaria. Sus algoritmos, son vistos como frutos maduros de ciencia e ingeniería avanzadas, campos que gozan de un alto nivel de valoración y confianza públicas.
El concepto de que la investigación científica e industrial forman la base del desarrollo y el bienestar mundial está ampliamente asumido por la masa. Ejemplos como la carrera espacial, el desarrollo tecnológico o los avances en medicina ayudan a solidificar esta idea de la cual también participa la IA.
Implicaciones del fenómeno
La atribución de una autoridad infalible a las respuestas de la IA tiene varias implicaciones que deberían ser consideradas, tanto en el ámbito personal como profesional.
En primer lugar, puede llevar a la propagación de desinformación, ya que los algoritmos de IA no son perfectos y pueden cometer errores, especialmente cuando se enfrentan a datos sesgados o incompletos. Si las personas aceptan estas respuestas, sin cuestionarlas, la desinformación puede difundirse rápidamente.
En segundo lugar, en los ámbitos de empresas e instituciones, este fenómeno podría acarrear una pérdida de calidad en los procedimientos, el diseño de estrategias y la toma de decisiones, al perderse o mermar la capacidad de pensamiento crítico y el razonamiento lógico de los profesionales.
El antídoto: formación y educación
La educación y la formación en IA son cruciales para atajar este fenómeno. En el ámbito de la enseñanza, las instituciones educativas deberían incorporar la alfabetización en IA en sus currículos, mostrando a los estudiantes a la manera acertada de comprender y evaluar la información generada por los algoritmos, potenciando lo que pueden hacer bien y alertando de las consecuencias de su mal uso.
En el ámbito empresarial e institucional el panorama es similar, ya que la atribución de autoridad de la IA por parte de trabajadores sin formación adecuada en IA puede acarrear problemas de todo tipo, desde pequeñas desviaciones difíciles de percibir hasta asunciones mayores consecuencias imprevisibles.
Profesionales formados
Al adoptar un enfoque proactivo en la educación y formación en IA, tanto a nivel personal como profesional, podemos convertir esta poderosa herramienta en un aliado formidable para el progreso colectivo.
Al adoptar una actitud que cuestione y evalúe críticamente las respuestas generadas por la IA, estaremos mejor preparados para aprovechar sus beneficios a la vez que minimizamos sus riesgos.
Saludos cordiales: Enrique San Juan

Nota de Editor: pueden ver la propuesta de Enrique capacitación en el siguiente Link:
Si quieren contactarlo por LinkedIn lo pueden hacer aquí:
Komentáře