Publicación semestral • ISSN 2683-2968 • Diciembre 2018 • Número de revista 1
1/5
Introducción
El “bicho” del año 2000
En la víspera del año 2000, poco antes de las campanadas que anunciaban el nuevo año, varios grupos de trabajo permanecieron en la DGSCA (Dirección General de Servicios de Cómputo Académico) supervisando que no se presentaran problemas con diversos sistemas de información debido a la amenaza del error del año 2000 (Y2K). Dado que la mayoría de los sistemas desarrollados hasta entonces en la UNAM consideraban un par de dígitos para la representación del año, desde meses atrás se habían realizado pruebas y ajustes a los equipos de misión crítica, como los que abastecían la operación de la nómina o las bases de datos de administración escolar, así también la supercomputadora Silicon Graphics Origin 2000. La media noche pasó sin que se presentaran inconvenientes. De forma muy aislada, computadoras personales con viejos sistemas operativos de la familia MS-DOS comenzaron a registrar fechas en los años 70 o a partir de 1981 - año en que apareció la primera computadora personal IBM-PC en el mercado, con un precio que superaba los 2,500 dólares americanos.
La UNAM contaba con 25 mil computadoras destinadas tanto a profesores como alumnos y la administración operativa de la institución. De ellas, la gran mayoría era de la plataforma X86, siendo el procesador Pentium el que predominaba. Sin embargo, la incapacidad de revisar todas y cada una de las computadoras por el problema Y2K se debía fundamentalmente a que, desde mediados de 1999, la UNAM estaba paralizada en la mayoría de sus operaciones por la huelga estudiantil que no concluiría sino hasta febrero de 2000. Fue hasta después de esa fecha que se pudo realizar un diagnóstico más preciso de lo que había ocurrido por el cambio de notación de las fechas, siendo pocos los problemas y fáciles de resolver.
Las TIC en la Educación a distancia
La DGSCA continuó con sus operaciones de forma ininterrumpida durante todo el período de la huelga. El personal de la dependencia sorteó diversos obstáculos – desde las complicaciones para llegar al edificio hasta las limitaciones para adquirir refacciones, suministros y consumibles para los equipos – e intentos de cierre para continuar con el servicio a una comunidad universitaria que seguía funcionando extramuros. Fue en ese período que la dirección, junto con el Instituto Latinoamericano de la Comunicación Educativa (ILCE) y la Dirección General de TVUNAM produjeron uno de los programas de divulgación del cómputo y las telecomunicaciones más populares: SEPAcómputo, el cual inició en 1999 como una alternativa a la alta demanda para capacitar a docentes en el uso de las llamadas “nuevas tecnologías”, procurando incentivarles a una cultura informática básica que les permitiera emplear la multimedia, las herramientas de ofimática como los procesadores de palabra, las hojas de cálculo y las presentaciones electrónicas a la vez de Internet y sus herramientas más “primitivas”: FTP, correo electrónico y un incipiente pero en rápido crecimiento servicio Web. El programa inició transmisiones en el canal 4 de la Ciudad de México, dentro de una barra de programación exclusiva del ILCE llamada “Imagina”. Posteriormente se programó en el canal 22 del área metropolitana, donde permaneció al aire hasta 2011.
SEPAcómputo rompió con un paradigma que hasta su aparición en las pantallas de la televisión abierta parecía insoluble: enseñar computación fuera del aula y sin, necesariamente, una computadora frente a cada estudiante. Existieron dos claves para ello. La primera mostraba el uso de técnicas, no de productos informáticos específicos. La segunda el propio momento que vivía la Universidad. Estar fuera de las escuelas y facultades e innovar en cómo seguir educando a los universitarios incidió en la manera de diseñar las clases que se impartían por televisión. Tanta fue la penetración de este programa en el mundo hispanohablante (dada la cobertura satelital del ILCE) que por más de una década se recibían correos electrónicos lo mismo de Tijuana que de Buenos Aires, consultando a los conductores sobre diversas dudas: desde cómo formatear un disco duro hasta cómo instalar un café Internet. Un programa que originalmente estaba destinado a profesores de educación básica y superior se convirtió en una aportación social de la UNAM. Los espectadores oscilaban desde alumnos de primaria hasta jubilados de la tercera edad, personas con alguna discapacidad física o amas de casa. A la fecha que se escribe este artículo, todos los programas de SEPAcómputo están disponibles en línea gratuitamente, tanto los producidos en estudio con el apoyo de TVUNAM [1] (2008 – 2013) como los realizados para las nuevas generaciones adictas a la Internet y YouTube [2].
La videoconferencia
La DGSCA ya tenía varios centros de extensión para atender la demanda de capacitación en la Ciudad de México (Nuevo Léon, Mascarones, Coapa, Polanco y Ciudad Universitaria), la incorporación de nuevas estrategias y recursos educativos facilitó la expansión de los programas a otros públicos. Desde finales del siglo XX la UNAM había establecido las bases, junto con otras instituciones, de la Red Nacional de Videoconferencia para la Educación (RNVE), haciendo las primeras transmisiones en 1995. Para inicios del siglo XXI se disponía de más de 20 salas de videoconferencia, con equipos especializados de telecomunicaciones denominados CODECs (codificadores – decodificadores) de varios miles de dólares cada uno, interconectados en RedUNAM por enlaces dedicados de al menos 384 Kbps. Esta tecnología fue la base para la expansión de varios programas de educación a distancia, no no solo de ésta dirección, sino de toda la universidad.
La videoconferencia interactiva, digital y en tiempo real, usaba lo mejor que la tecnología de cómputo y telecomunicaciones podía proporcionar en el momento. Existían, sin embargo, diversas limitantes. Una era el costo de los equipos. Otra la inversión necesaria en las adecuaciones de espacios y los aparatos periféricos como cámaras robóticas, de documentos, proyectores, pantallas y pizarrones interactivos. Una más la capacidad de hacer videoconferencias entre más de tres sitios dentro de la misma sesión, lo que implicaba disponer de un aparato más sofisticado denominado “Puente” o “Unidad Multipunto de Videoconferencia”, con costo de varias decenas de miles de dólares y que, por tanto, solo estaba disponible en la DGSCA, lo que dio origen al Centro de Operaciones de Videoconferencia (VNOC), todavía en funcionamiento. Pero el más difícil de sortear era el enlace de telecomunicaciones. Considerando que los servicios ISDN no llegaron a ser comerciales en México sino hasta 1998, las primeras salas de videoconferencia eran un recurso escaso y complicado de operar. Pero al asociarse la red de videoconferencia con otras salas instaladas en México, así también con la incorporación del servicio dentro de las herramientas disponibles para los miembros de Internet 2 en México a través de la Corporación Universitaria para el Desarrollo de Internet (CUDI), junto con la popularización del estándar para video interactivo H.323 de la Unión Internacional de Telecomunicaciones (ITU), la primera década del siglo XXI fue testigo de la expansión de salas de videoconferencia en toda la UNAM y otras instituciones públicas y privadas del país. Tan sólo en la UNAM, hacia 2018, se dispone de más de 200 salas de videoconferencia en auditorios, salas especializadas, laboratorios y salas de juntas, siendo una de las tecnologías que más ha unificado a grupos de profesores, investigadores y alumnos, ahorrando decenas de miles de dólares en traslados, viáticos y logística para el cumplimiento de diversas actividades y objetivos institucionales.
Figura 1. Fuente: Subdirección de Comunicación, DGTIC, UNAM
2/5
Infraestructura de cómputo
Hacia finales de la década de los 90, la UNAM había instalado una importante cantidad de laboratorios de cómputo en escuelas y facultades. Con el apoyo de Fundación UNAM se colocaron en espacios de bibliotecas y áreas de apoyo a la docencia laboratorios con ordenadores personales y conexión a RedUNAM. En el año 2000, el censo de cómputo arrojaba un total de 25 mil equipos propiedad de la institución. Esta cantidad se duplicó en el 2007, con 50,477 equipos. Siete años después, en 2014, el inventario llegó a 75,408 (casi un 50% más de las existentes en 2007) y en 2018 el total rebasa los 80 mil dispositivos, incluyendo tabletas, computadoras personales, servidores, equipos portátiles. Como es claro ver, durante el primer tercio del tiempo transcurrido en este siglo, el crecimiento fue mucho mayor que en los últimos seis años, prácticamente en proporción 2 a 1. Esto tiene dos razones básicas:
La UNAM no ha sido ajena a esta revolución del cómputo permanentemente conectado (más de manera inalámbrica) y de bolsillo. En las recientes encuestas publicadas por la DGTIC (Dirección General de Cómputo y de Tecnologías de Información y Comunicación, desde el 27 de septiembre de 2010 cambia de denominación la Dirección General de Servicios de Cómputo Académico a Dirección General de Cómputo y de Tecnologías de Información y Comunicación), denominadas TICómetro [3], se muestra que más del 97% de los estudiantes universitarios, en promedio, disponen de un teléfono inteligente o tableta, y más del 80% tienen una computadora en casa o portátil. Esta masificación de la tecnología, convirtieron al cómputo y a las redes en un elemento más de consumo a precios significativamente inferiores que en generaciones previas, es lo que explica una menor cantidad de computadoras agregadas al parque operativo de la UNAM. Incluso se ha detectado un fenómeno aún más interesante: la tendencia al arrendamiento de equipo de cómputo en lugar de su compra inmediata, teniendo esquemas de capitalización que son más convenientes para organizaciones del tamaño de la Universidad, ya que no se desembolsa una cantidad relevante al inicio de un contrato al operar bajo un esquema de servicios administrados. Este es un punto clave en la denominada “consumerización” del cómputo, ya que no se identifican los equipos como algo patrimonial, sino como un servicio, lo que reduce la carga de pasivos para la institución.
En lo que respecta a servidores y estaciones de trabajo, el crecimiento en lo que va de siglo ha casi a la inversa del equipo de cómputo personal, si se considera que al año 2000 se tenían 180 equipos con esta función, y para 2018 hay un total de 2,042, lo que lleva a concluir que el cómputo por un lado se ha masificado (equipos personales) más del lado de los usuarios y las áreas especializadas requieren equipos más sofisticados. También aquí hemos sido testigos de la aparición de modernas tecnologías en el cómputo administrativo, científico y central, siendo la más relevante de todas la virtualización de servidores, lo que ha permitido la creación de centros de datos que rememoran los viejos tiempos del modelo anfitrión – terminal, es decir: de un gran equipo de cómputo que tenía terminales de mínimas capacidades de procesamiento, usando sistemas de información centrales. En la última década del siglo XX este modelo estaba completamente rebasado por el esquema cliente – servidor, lo que hizo que muchas entidades y dependencias universitarias adquirieran computadores de mayor capacidad para otorgar servicios locales y, en ocasiones, hospedar aplicaciones como servidores Web o de archivos. Sin embargo, este modelo que tuvo su mayor expansión en la primera década de este siglo, dio paso a la virtualización sustentada tanto en las capacidades significativas de los nuevos procesadores centrales (con múltiples núcleos e hilos de ejecución simultánea), mayores rangos de memoria RAM y mayor conectividad. Es así que desde 2013 la UNAM cuenta con un centro de datos en la DGTIC, donde a la fecha se virtualizan más de 450 servidores con las más variadas aplicaciones. Sistemas de información, sitios Web, correo electrónico, servidores de archivos o respaldos de otros sistemas, por mencionar algunas. Esto ha permitido reducir considerablemente las inversiones en equipos dispersos en la institución, a lo que se suma la consolidación de procedimientos, sistemas de respaldo, esquemas de alta disponibilidad y políticas de seguridad unificadas.
Software
Al igual que otras instituciones educativas, los programas de aplicación más usados en la UNAM corresponden a la ofimática: procesadores de palabra, hojas electrónicas de cálculo y presentaciones electrónicas. Existen otras aplicaciones que son usadas en mayor número en función del área de conocimiento o especialización, como es el caso de programas para análisis y procesamiento matemático, manejadores de bases de datos de gran volumen, procesamiento de imagen y video, por mencionar algunos. Desde 2009 la UNAM ha establecido múltiples convenios con empresas desarrolladoras de software para disponer de licenciamientos institucionales de aquellos programas con mayor demanda, lo que también ha redundado en ahorros y una política actualizada en cuanto a la protección de derechos de autor.
Paralelamente, se estableció desde 2014 una tienda de software [4] que facilita a los universitarios identificar cuáles son los programas con un licenciamiento institucional, también aparecieron las tiendas de aplicaciones móviles en las plataformas iOS y Android, en donde se resguardan al 2018 más de 30 aplicaciones actualizadas, aunque históricamente se tiene el registro de casi un centenar de aplicaciones, ya sea programadas por miembros de la comunidad o por instancias externas bajo encargo de las entidades y dependencias.
Supercómputo
Al inicio del milenio los investigadores universitarios tenían a su disposición la supercomputadora Silicon Graphics Origin 2000 (segunda generación de supercómputo en la UNAM, después de la supercomputadora Cray instalada en 1991) con 15.6 GigaFLOPS [5] de capacidad de procesamiento. Ya había iniciado el diseño de la tercera generación, que concluyó con la puesta en marcha del equipo HP AlphaServer en 2003, multiplicando 5 veces el rendimiento de su predecesora (80 gigaFLOPS). El sistema AlphaServer fue el último de tecnología RISC [6] en el supercómputo de la UNAM, y el que menor tiempo estuvo en operación. El mismo fabricabte HP en 2007 activó el cluster x86, denominado KanBalam.
Así como la supercomputadora Cray (Sirio) fue un hito en la historia del cómputo en la UNAM, México y Latinoamérica, el clúster X86 de HP (KanBalam) fue otro salto importante en la evolución del cómputo científico y numérico en la institución. Fue la primera computadora de Latinoamérica que rebasó la marca de 6 TeraFLOPS (inició operaciones con 7.11 TeraFLOPS), estuvo listada entre las primeras 250 supercomputadoras dentro del Top500 que se publica semestralmente e implicó un cambio total en la forma en la que se accedía a recursos de almacenamiento y procesamiento. KanBalam sumaba 1,368 procesadores centrales y la memoria RAM era superior a los 3 TeraBytes con un subsistema de almacenamiento en disco duro de 160 TeraBytes. Con relación a su predecesora (HP AlphaServer “Bakliz”), KanBalam era 88 veces superior en procesamiento, 94 veces superior en memoria y 160 veces superior en almacenamiento en disco.
Si bien la época de las supercomputadoras con arquitectura RISC no ha terminado (la más grande actualmente, el clúster con procesadores Power 9 de IBM que se ubica en el Laboratorio Oak Ridge de los Estados Unidos, conserva esa arquitectura) en la UNAM la quinta generación de supercómputo también fue X86 y comenzó a diseñarse en 2010 para reemplazar a KanBalam. El equipo Miztli inició sus servicios en marzo de 2013, incluyendo algunos nodos de procesamiento especializado con GPU [7]. Miztli, en un inicio, fue 17 veces superior a KanBalam, pero ha tenido crecimientos a lo largo de sus cinco años de servicio, proporcionando actualmente 236 TeraFLOPS de rendimiento y 750 TeraBytes de espacio en disco.
La UNAM publica dos veces al año una convocatoria para que sus investigadores presenten proyectos que utilicen los recursos de supercómputo. Si bien se atiende a la mayoría, en promedio cada año un 40% de los proyectos presentados no alcanzan a recibir recursos, debido a la demanda. Miztli proporciona 67 millones de horas CPU al año, que se reparten en más de 120 proyectos por semestre, pero el total de proyectos presentados es cercano a los 200.
Como resultado del Plan de Desarrollo de Supercómputo para el período 2018 – 2024, se está diseñando la sexta generación de estos equipos de alto rendimiento, con una mayor presencia de GPUs y redes internas de baja latencia para la interconexión de los nodos del clúster que superarán los 100 Gbps.
LANCAD y Delta Metropolitana
La Universidad Autónoma Metropolitana (UAM), el Centro de Investigaciones y Estudios Avanzados (CINVESTAV) y la UNAM, iniciaron la construcción de la primera red de fibra óptica obscura [8] con propósitos académicos en la zona metropolitana de la Ciudad de México desde 2007, a través de los túneles del Sistema de Transporte Colectivo – Metro. Tres campus de las instituciones están interconectados (Zacatenco, Iztapalapa y Ciudad Universitaria) con el fin de compartir recursos de supercómputo y ofrecer a investigadores en otras instituciones horas de procesamiento que de otra forma no tendrían a su alcance.
El Laboratorio Nacional de Cómputo de Alto Desempeño (LANCAD) y su soporte de telecomunicaciones por medio de la Delta Metropolitana, son un proyecto conjunto de la UAM, el CINVESTAV y la UNAM apoyado por los fondos concurrentes para Laboratorios Nacionales del Consejo Nacional de Ciencia y Tecnología (Conacyt). Desde 2011 cada institución destina el 10 % de la capacidad de procesamiento de los clúster de supercómputo para apoyar a la investigación en otras universidades, institutos y centros. Adicionalmente se asignan los trabajos de forma independiente a la organización y bajo la premisa del tipo de librerías, procesadores y tiempo de máquina que cada uno de los proyectos presentados y aprobados requiere.
3/5
Redes de telecomunicaciones
Con más de 80 mil computadoras propias conectadas a la red institucional y a Internet, la infraestructura de telecomunicaciones en la UNAM en los últimos 20 años se ha transformado considerablemente. Lejos quedan en el tiempo las redes de diversa naturaleza y protocolos, siendo Ethernet el estándar en prácticamente todas las redes de cómputo en la UNAM (a excepción de la interconexión de nodos en la supercomputadora, que en las últimas dos generaciones ha sido del tipo InfiBand, que reemplazó a las redes FDDI, ATM y Fibre-Channel usadas en equipos previos).
Con la modernización de la infraestructura eléctrica del campus de Ciudad Universitaria (Proyecto de Media Tensión) se hizo también el cambio de gran parte de los enlaces de fibra óptica que interconectan a las entidades y dependencias, teniendo hoy en día servicios a 40 Gbps a nivel de la dorsal con capacidad de superar los 100Gbps. En las redes locales se han realizado actualizaciones importantes, sustituyendo los viejos concentradores por modernos switches que generalmente operan entre 1 Gbps y 10 Gbps.
Sin embargo, desde mediados de la primera década del siglo, las redes inalámbricas tienen una presencia y demanda indiscutibles en todas las organizaciones. La Red Inalámbrica Universitaria (RIU) inició operaciones en 2004, siendo un servicio gratuito para todos los miembros de la comunidad. Con más de 1500 puntos de acceso operativos, la RIU está presente prácticamente en todos los campus de la UNAM en el país. Con la misma cuenta de usuario los universitarios pueden ingresar a la RIU, lo mismo en el campus Juriquilla o en una sede de la Escuela Nacional Preparatoria (ENP) en la Ciudad de México, por poner un ejemplo.
Para el adecuado funcionamiento de la RIU y en lo general de RedUNAM, existen enlaces digitales metropolitanos y nacionales que interconectan las diversas redes locales. Hacia el año 2000 la mayoría de estos enlaces convergían hacia Ciudad Universitaria proporcionando el acceso a Internet para todos los campus. Los enlaces metropolitanos generalmente eran del tipo E0 a 64 Kbps y los nacionales E1 a 2 Mbps. A través de estos servicios se proporcionaba tanto la conectividad a Internet como el acceso a extensiones telefónicas digitales y videoconferencia. El uso desbordado de mayor ancho de banda por aplicaciones multimedia, sumada a la cantidad de dispositivos asociados a la red de la UNAM (al menos hay 150 mil cuentas de acceso a RIU vigentes, para igual número de dispositivos de los estudiantes y profesores universitarios) se requirió transformar la conectividad inter-campus. Hoy en día casi todas las sedes de la UNAM disponen de enlaces redundantes de al menos 1 Gbps cada uno. Un enlace es administrado por la institución como parte de sus contratos con empresas de telecomunicaciones, ya sea para conexión hacia Ciudad Universitaria o como acceso local a Internet. En otros casos (como en el bachillerato y las Facultades de Estudios Superiores en la Zona Metropolitana de la Ciudad de México) se dispone de enlaces entre 1 y 10 Gbps hacia la red NIBA (Red Nacional de Impulso a la Banda Ancha), como parte de la vinculación de la UNAM con CUDI (asociación civil de instituciones cuyo propósito desde su fundación en 1999 ha sido el fomentar mejores servicios de telecomunicaciones y aplicaciones especializadas para la academia.
Seguridad de la información y firma electrónica
Varias áreas de especialización que comenzaron a operar en la DGSCA a finales del siglo XXI, incubadas en supercómputo, florecieron hasta convertirse en servicios básicos de tecnologías de información. Tal es el caso de la Seguridad de la Información, que inició como un grupo de trabajo que soportaba parte de la operación de los servicios de supercómputo aún con la primera generación (Cray). A lo largo de los últimos 20 años este grupo de especialistas ha formado a más de 300 becarios, y algunos de estos egresados hoy son ejecutivos de la seguridad informática en puestos clave dentro de los sectores público y privado.
La Seguridad de la Información se ha posicionado como una prioridad en la UNAM. No solamente por lo que implica la protección de los sistemas y acervos de datos institucionales, sino también por la protección a la información personal de los universitarios y el garantizar la continuidad de las operaciones, pues más de un 90% de todos los servicios que la UNAM proporciona a sus estudiantes y profesores, investigadores y empleados, está apoyado de alguna forma por tecnología de información y comunicación.
Dentro de la política de simplificación de trámites con tecnología de cómputo de manera segura, en 2007 la UNAM normalizó el uso de la Firma Electrónica Avanzada (FEA), con plena validez legal y administrativa dentro de la institución y apegada a las mejores prácticas y estándares nacionales e internacionales. En 2018, más de 36 mil certificados digitales para firma electrónica tienen vigencia para acceder a una veintena de sistemas estratégicos: desde la firma de actas de calificación hasta la de contratos y adquisiciones. Este mecanismo que ha evolucionado en fechas recientes a la Firma Electrónica Universitaria (FEU) posee todas las características internacionales de los protocolos de llave pública (PKI) y es emitido por la propia Autoridad Certificadora de la UNAM. En más de 10 años de uso, la Firma Electrónica ha evitado la impresión de más de un millón y medio de documentos anualmente, sin mencionar las horas – hombre ahorradas y el impacto en la huella de carbono de la institución.
Realidad virtual y aumentada
Otro proyecto derivado de los primeros años del supercómputo fue el desarrollo de la realidad virtual y aumentada. En 2004 se inauguró el Observatorio Ixtli en la DGSCA, el primero de naturaleza inmersiva en Latinoamérica. Por medio de equipos de cómputo, sensores de movimiento, pantalla curva, proyectores de alta definición sincronizados y lentes para visualización en 3D, el Observatorio permitió el desarrollo de una treintena de proyectos cada año entre 2004 y 2010, la mayoría orientados a apoyar actividades docentes en temas tan diversos como la veterinaria y la química orgánica, los deportes y el análisis del clima.
Con la revolución de los dispositivos móviles y la hiperconectividad, la realidad aumentada ha migrado hacia los teléfonos inteligentes. En el último lustro se han desarrollado en la DGTIC más de 30 aplicaciones que incluyen realidad aumentada, mundos virtuales y visualización inmersiva, ya no solo orientadas a un auditorio, sino para uso personal con un casco de realidad virtual y un teléfono o tableta. Nuevamente, las aplicaciones están orientadas al apoyo a la docencia y la investigación.
Capacitación en cómputo y formación de recursos humanos
Hacia 2007, la DGSCA proporcionaba capacitación a poco más de 25 mil personas anuales en promedio a través de sus ocho centros de extensión: Ciudad Universitaria, Nuevo León, Mascarones, Coapa, San Agustín, Palacio de la Autonomía, Polanco y Tlatelolco. Con un catálogo que rebasaba los 160 cursos, especializaciones, diplomados y programas de actualización para el trabajo, la dirección estaba consolidada institucionalmente como una de las principales entidades de educación continua, solamente atrás de las divisiones similares en las Facultades de Ingeniería y de Contaduría y Administración.
En buena medida, la capacidad de la DGSCA, inicialmente, y luego de la DGTIC para dar servicios de educación continua se ha apoyado en el tipo de programas educativos, la disponibilidad del personal académico especializado en TIC que, día a día, suma conocimiento a su experiencia para compartirla después con los alumnos que asisten a los cursos de la dependencia. Aparece también el programa de becarios de la DGTIC que inició oficialmente en 1988, con más de 2,500 egresados, la mayoría de ellos teniendo la opción de concluir su formación profesional (titulación) como consecuencia de participar en el programa. Muchos de esos becarios se incorporaron posteriormente a la planta docente de la dependencia, ya sea como técnicos académicos o como profesores externos.
Sin embargo, con el cambio tecnológico que significó la alta conectividad, los dispositivos móviles y la simplificación de las interfaces de usuario en los sistemas operativos y los programas de aplicación, aunado a la elevada disponibilidad de contenidos multimedia en Internet, la demanda de capacitación presencial se ha reducido considerablemente en los últimos 10 años, prefiriendo los estudiantes - ya sea miembros de la comunidad universitaria o externos- los programas de formación disponibles en línea. Actualmente más de la mitad de los alumnos de educación continua de la DGTIC atienden a las clases de forma no presencial y otro porcentaje importante lo hace de manera mixta (cierta carga académica en aulas de la dependencia y otra equivalente en la plataforma Web). Es por ello que sólo subsiste el 50% de los centros de extensión: Ciudad Universitaria, Mascarones, Polanco y San Agustín – Regina.
4/5
Los retos
Los 60 años de cómputo en la UNAM son tan solo un preámbulo de lo que está por venir. Si bien el cómputo y las telecomunicaciones universitarias nacieron como una demanda del sector investigación, actualmente es difícil ubicar un área, servicio, entidad o dependencia en lo general, e incluso universitario en lo particular, que no utilice en mayor o menor grado los servicios, infraestructura, conocimientos y experiencia acumulados por la institución en las últimas seis décadas. Pero el reto es aún mayor en lo que respecta al corto, mediano y largo plazo.
Las TIC son una de las áreas de conocimiento, investigación, aplicación y negocio más dinámicas comparativamente con otros sectores de la industria. Cada año se suman miles de millones de dispositivos a la conectividad por Internet, aparecen miles de nuevas amenazas a la seguridad informática diariamente, cientos de aplicaciones móviles llenan los dispositivos en los bolsillos de miles de millones de personas cada semana, las redes sociales son omnipresentes (con sus ventajas y desventajas) y la demanda de acceso a Internet y el consumo de datos parece no tener un límite. La mayoría de las empresas con más ganancias en el último lustro, y mejor posicionadas en los diversos análisis de especialistas en materia de rendimiento bursátil, están relacionadas con tecnología de información. La corporación más cara en la historia, con valor de mercado superior a un billón de dólares americanos (Apple) rebasa por mucho a las tradicionales industrias (automotriz, financiera, manufacturera, entre otras). Eso habla claramente de la pujanza de las tecnologías de la información en el inicio de la llamada Cuarta Revolución Industrial: la revolución de la sociedad de la información y el conocimiento.
Las instituciones de educación superior (IES) no han sido - y no pueden ser- ajenas a esta tendencia mundial. La productividad de las economías nacionales, el desarrollo social y las posibilidades de cada individuo para realizar un proyecto de vida dependen en buena medida de la resolución de diversos retos. Por el compromiso con sus estudiantes y su planta académica y de investigadores, pero fundamentalmente por su razón de ser en la nación, las instituciones de educación e investigación deben atender múltiples retos en el marco de esta revolución del conocimiento, la información, la tecnología, la economía y la sociedad en su conjunto. Algunos de los más claros para la siguiente década son:
Estas son algunas de las preguntas y retos que, más allá de equipos, servicios, enlaces, recursos, procesadores, memorias, discos, cables, programas, códigos, algoritmos y antenas, debemos resolver pronto, rápido, eficientemente y en conjunto.
5/5
Bibliografía
[1] SEPAcómputo, “Material histórico 1999-2005,” DGTIC, UNAM, [En línea] Disponible en: https://www.sepacomputo.unam.mx/?page_id=20 [Consultado en noviembre 2, 2018].
[2] sepacómputo, “UNAM Sepacomputo canal,” DGTIC, UNAM, [En línea] Disponible en: https://www.youtube.com/channel/UCFaHjPtEWOO7RWyREEj094g [Consultado en noviembre 2, 2018].
[3] TICómetro, DGTIC, UNAM, [En línea] Disponible en: https://ticometro.unam.mx/ [Consultado en noviembre 2, 2018].
[4] Tienda de Software de la UNAM, DGTIC, UNAM, [En línea] Disponible en: https://www.software.unam.mx [Consultado en noviembre 2, 2018].
[5] FLOP: Operación de punto flotante por segundo. Un GigaFLOP corresponde a mil millones de operaciones de punto flotante. Un TeraFLOP a un billón (millón de millones) de operaciones de ese tipo.
[6] RISC: Reduced Instruction Set Computer. Este tipo de procesadores emplean un código mínimo de instrucciones, a diferencia de sus competidores CISC (Complex Instruction Set Computer) que requiere de la conversión a un microcódigo propietario partiendo de las instrucciones orignales)
[7] GPU: Graphic Processing Unit. Estos procesadores derivan el procesamiento de imágenes y videojuegos, y están especializados en grandes volúmenes de cálculos numéricos.
[8] Recibe el adjetivo de “obscura” debido a que no proporciona servicios públicos y tampoco es administrada por una empresa de telecomunicaciones (carrier).