top of page
Foto del escritorGerardo Cerda Neumann

Que Treinta Años es Nada… Parte 1

Actualizado: 18 jul 2022


Hoy, 4 de enero de 2021 se cumplen 30 años de haber rendido mi Examen de Título de “Ingeniero de Ejecución en Informática” en la Universidad Católica de Valparaíso (UCV, actualmente conocida como Pontificia Universidad Católica de Valparaíso o PUCV).


Como suele suceder cuando se recuerdan hechos ocurridos hace muchos años me sorprende el tiempo que ha pasado casi sin darme cuenta.


Ese lejano día presenté mi Proyecto de Título llamado “Herramientas CASE y el uso de MetaDesign” (si no me creen pueden consultar el catálogo de la universidad que registra una entrada en la siguiente URL: http://opac.pucv.cl/cgi-bin/wxis.exe/iah/scripts/?IsisScript=iah.xis&lang=es&base=bdpucv&nextAction=lnk&exprSearch=METADESIGN&indexSearch=DS).


La razón por la que escribo este comentario es para compartir con ustedes algunos elementos que nos permitan ver todo lo que ha avanzado la Informática en estas tres décadas.


Cabe recordar que en esa época los computadores personales (IBM PC y derivados y también los Macintosh) aún no cumplían 10 años de existencia y recién estaban entrando a las empresas de la mano de las Redes de Área Local (LAN por sus siglas en inglés). Claro que eran equipos muy caros (más de US $ 3.000 de la época) y por esa razón la mayor penetración de “Tecnología Computacional” iba de la mano de los Mainframes con sus terminales desde donde se ejecutaban aplicaciones monolíticas, generalmente escritas en los lenguajes Fortran (de orientación científica matemática) y Cobol (de orientación administrativa).


En esa época recién las empresas grandes como Bancos y Mineras estaban incorporando Bases de Datos Relacionales (básicamente Oracle) razón por la cual el manejo de los datos se hacía con sistemas de archivos.


Mi generación tuvo la fortuna de estudiar ocupando tecnología de Mainframes de IBM y por esa razón, luego de un año de realizar pequeños proyectos en una Isapre de Viña del Mar, pude postular y ser contratado en el Banco de Chile. Siempre digo que ese fue mi primer “trabajo trabajo” ya que tuve contrato, imposiciones y cotizaciones de salud.


Además de conocer exactamente la misma tecnología que manejaba el banco (de hecho usé incluso idéntica versión del sistema operativo IBM 360 que ocupaba en la Universidad) se me facilitó el ingreso debido a que la institución ya conocía el nivel profesional de los Ingenieros de la Escuela de Informática ya que el año anterior había contratado a 4 de ellos pertenecientes a la primera promoción (sí, yo fui de la segunda).


Si bien esos terminales que usábamos en la Universidad eran del tipo llamado “tontos” (eso quería decir que todo el procesamiento se realizaba en la CPU y el terminal solo desplegaba las líneas de texto monocromático y recibía las instrucciones digitadas en el teclado ya que no tenían mouse) tenían una gran ventaja: simplemente no se “colgaban” nunca ya que era un sistema muy simple pero a la vez tremendamente robusto.


Les dejo una imagen de los terminales que usábamos para que se hagan una idea:


Esta breve introducción me lleva a sacar la conclusión de que era más fácil la inserción laboral en esos tiempos debido a que existían pocas tecnologías y las grandes empresas de la época usaban fuertemente dos de ellas para el manejo de los Mainframe ya descritos: IBM y Digital.


Se debe reconocer que actualmente el titulado sale a un mundo laboral donde hay muchos tipos de arquitecturas tecnológicas que utilizan incluso diferentes variantes de los lenguajes de programación que este conoce. En esa época además de los dos ya mencionados se podía agregar: C++, dBase IV, Clipper para PC y FoxPro (Visual Basic no saldría hasta el año 1992). Turbo Pascal, muy popular por esos años se usaba para el aprendizaje de la programación y muy poco en el mundo profesional.


Quizás se estarán preguntando: ¿cuál era la herramienta o técnica más valiosa que se entregaba en la educación superior de los Ingenieros Informáticos de la época?


Mi respuesta sería: el Desarrollo de los Sistemas de Información a partir del “Análisis Estructurado Moderno” planteado por Edward Yourdon el año 1989 con su famoso libro del mismo nombre. Adjunto la portada de la versión en castellano publicada por Prentice Hall:













Si quieren conocer del tema pueden consultar el capítulo 5 (Análisis Estructurado) del texto gentilmente preparado por el Profesor Oscar Núñez Madrid el año 2006 y que pueden descargar desde: https://www.academia.edu/8145855/An%C3%A1lisis_y_Dise%C3%B1o_de_Sistemas_Estructurado_Moderno_ADSEM?auto=download


Si bien algunos temas se ven francamente antiguos la lógica, de Top Down la sigo considerando válida ya que se empieza con un Diagrama de Flujo de Datos (DFD) de Contexto o Nivel 0 donde se identifican solo las entradas y salidas existentes. En la siguiente imagen se puede ver un ejemplo sencillo del mismo (tomado de: http://agrega.juntadeandalucia.es/repositorio/20022017/0a/es-an_2017022012_9122923/33_ejemplo.html):


Luego se abre cada vez en más detalle tal como se ve en las siguientes imágenes, siempre manteniendo la coherencia de respetar las entradas y salidas ya identificadas.

DFD Nivel 1:


DFD Nivel i (detalle de lo anterior):


Posteriormente se describen todos los elementos incluidos mediante el Diccionario de Datos (DD) cuyo ejemplo se muestra a continuación:


Es decir que era posible analizar y describir todo un Sistema de Información utilizando solo estos cuatro elementos gráficos (tomado de: https://es.wikipedia.org/wiki/Diagrama_de_flujo_de_datos):


Y si se están preguntando: ¿qué se estudiaba y aplicaba en Ingeniería de Software?


Solo les puedo decir que… lo veremos en la siguiente parte.

264 visualizaciones0 comentarios

Comments


bottom of page