El avance de la Inteligencia Artificial (IA) incursionó en las nuevas formas de comunicación hasta llegar a los chats conversacionales. ChatGPT, uno de los más populares, utiliza un modelo conocido como Lenguaje de Gran Tamaño (LLM), el cual consta de gran variedad de documentos contenidos en internet. El proceso de estos datos funciona como una red neuronal, cuya estructura permite organizar un texto coherente.
El investigador Asdrúbal López Chau explica la función de los modelos de LLM dentro de la operación de ChatGPT. Este modelo se alimenta del contenido de internet y al procesarlo crea tokens (palabras), que después se organizan y estructuran en una red que funciona similar a una red neuronal. A través de un modelo matemático se pueden relacionar las palabras con otras de relevancia dentro del documento, lo que permite formar un texto. Este análisis se encuentra en su artículo “Transformers, la magia detrás del Chat GPT”, en la revista Universitaria, de noviembre-diciembre 2023.
Todo el proceso de LLM atraviesa por capas, por lo que se propone el término de transformers. Dichas capas o codificadores posicionales permiten la elaboración de contenido textual de manera automática. Para llegar a este nivel, los investigadores iniciaron el modelo realizando el proceso de manera manual, es decir, relacionar preguntas y respuestas.
Por último, el autor considera que estos avances seguirán innovando y algunos necesitarán perfeccionarse; sin embargo, prevé que el gran potencial de esta tecnología puede aplicarse a problemas de índole nacional.
Revisa el artículo completo en https://revistauniversitaria.uaemex.mx/article/view/22323/16578 y lee https://revistauniversitaria.uaemex.mx/index