3/7
Existen una gran diversidad plataformas tecnológicas que permiten el desarrollo de proyectos de inteligencia artificial, por ejemplo, Google AI Platform, TensorFlow, Microsoft Azure, por mencionar algunas. Estas plataformas se caracterizan por permitir crear, implementar y administrar modelos computacionales con código abierto (p ej. Python). Así como por proveer servicios a desarrolladores poco experimentados con fines específicos, tales como procesamiento de lenguaje natural, visión artificial, análisis de datos. El cómputo ofrecido por estas plataformas comúnmente emplea CPU o GPU, los cuales tienen diferentes arquitecturas y se construyeron con propósitos diferentes.
La CPU es adecuada para una amplia variedad de cargas de trabajo, especialmente aquellas en las que la latencia o el rendimiento por núcleo son importantes. La CPU es un potente motor de ejecución y centra su reducido número de núcleos en tareas individuales y en realizar las tareas rápidamente. Por tanto, resulta especialmente buena para tareas que van desde la computación en serie hasta la ejecución de bases de datos [4]. Mientras que, la GPU es un circuito integrado para aplicaciones específicas, por ejemplo, acelerar las tareas específicas de renderización en 3D. Recientemente, las GPU han evolucionado para convertirse también en procesadores paralelos de uso más general, por lo que manejan una gama cada vez más amplia de aplicaciones [4]. Sin embargo, ni la CPU ni la GPU fueron diseñadas para realizar cómputo de inteligencia artificial. Por tanto, pueden resultar ineficientes para el cómputo de IA que se basa comúnmente en redes neuronales convolucionales (CNN) que internamente realizan operaciones masivas de multiplicación de matrices o vectores.
Huawei desarrolló la arquitectura Da Vinci específicamente para cómputo de inteligencia artificial. Esta arquitectura proporciona unidades de cómputo escalar, vectorial y cúbicas [5]; operaciones comúnmente realizadas por las redes neuronales convolucionales. La arquitectura utiliza los procesadores Ascend, por ejemplo, Ascend 910 que se encuentran en servidores que pueden ser usados para entrenar y evaluar modelos basados en redes neuronales convolucionales. Por esta razón participamos en la convocatoria Alianza Huawei-UNAM, ya que a diferencia de otras convocatorias, que ofrecen recursos económicos, en la convocatoria Alianza se otorgaban recursos físicos (hardware), concretamente acceso a horas de procesamiento para entrenamiento y evaluación de modelos en servidores Huawei con procesadores Ascend. Los equipos disponibles eran Atlas 800 (Modelo 9000), Huawei Atlas 800 (Modelo 3010) o Huawei Thaishan (Modelo 2280). Además, ofrecían recursos lógicos (software) y capacitación en temas relacionados con la inteligencia artificial, aprendizaje automático y profundo, certificaciones de nube Huawei, tales como Huawei Certified ICT Associate (HCIA), Huawei Certified ICT Professional (HCIP). Huawei Certified ICT Expert (HCIE) y talleres de innovación centrada en las personas (Design Thinking).
Fecha de recepción: julio de 2023
Fecha de publicación: noviembre de 2023
AI Website Creator