Aunque le llamemos “inteligencia artificial”, conviene recordar que ChatGPT no es nada más que un sistema entrenado a partir de información que hemos generado los humanos, y que ni tiene opinión ni consciencia ni nada que se le acerque.
Es un proyecto del que se está hablando mucho últimamente, pero es uno más de los varios que hay trabajando con modelos lingüísticos de grandes dimensiones (LLM). En este caso se le ha entrenado con información hasta 2021, y tiene restringido el acceso a internet para dar información en tiempo real.
Lo que realmente sorprende de ChatGPT es que es capaz de elaborar respuestas de calidad, muy bien redactadas y razonadas, pero cuando lo usas varias veces, te das cuenta de que hay un patrón en la forma de hacerlo y que “no se moja” con casi nada.
ChatGPT está basado en la versión 3.5 de GPT (Generative Pre-trained Transformer) que trabaja con un conjunto de 175 mil millones de parámetros y recientemente han anunciado que tienen ya preparada la versión 4, que seguro que sorprende aún más. Son modelos generativos que de aprendizaje profundo, y en esta próxima versión trabajará con muchísima más información y mejoras.
Ha sido desarrollado por OpenAI, que fue fundada por Elon Musk y Sam Altman, en formato de organización sin ánimo de lucro, algo que me cuesta creer estando esos dos detrás del proyecto.
Habrá que estar atentos a la competencia, Google con su LaMDA y sobre todo PaLM, Microsoft y nVidia con su Megatron-Turing Natural Language Generation (MT-NLG) que supera los 530 mil millones de parámetros. Amazon, Facebook y todas las grandes trabajan en el tema, porque para entrenar estos modelos hace falta dinero, mucho dinero… y nadie lo regala sin esperar nada a cambio.