La iniciativa apunta a corregir sesgos culturales de los sistemas actuales y posicionar a América Latina como creadora de tecnología en un sector dominado por potencias globales. (Photo by Raul BRAVO / AFP)
La iniciativa apunta a corregir sesgos culturales de los sistemas actuales y posicionar a América Latina como creadora de tecnología en un sector dominado por potencias globales. (Photo by Raul BRAVO / AFP)

Chile lanzó este martes Latam-GPT, un proyecto destinado a dotar a América Latina de su propio modelo de inteligencia artificial, en un contexto global dominado por desarrollos provenientes de Estados Unidos, China y Europa.

La iniciativa es impulsada por el Centro Nacional de Inteligencia Artificial (Cenia), una corporación privada con financiamiento público, y cuenta con el respaldo de universidades, bibliotecas, fundaciones, entidades gubernamentales y organizaciones de la sociedad civil de países como Chile, Uruguay, Brasil, Colombia, México, Perú, Ecuador y Argentina.

Boric: “Estamos en la mesa, no somos el menú”

Durante la presentación oficial del proyecto en Televisión Nacional de Chile, el presidente Gabriel Boric destacó el carácter estratégico de Latam-GPT para el futuro de la región.

“Gracias a Latam-GPT estamos posicionando a la región como un actor activo y soberano en la economía del futuro. Estamos en la mesa, no somos el menú”, afirmó el mandatario.

En la misma línea, el ministro de Ciencias, Aldo Valle, señaló que el objetivo es romper prejuicios y evitar que la representación de América Latina en el mundo “se vea toda igual”.

“La región no puede ser solo usuaria o receptora pasiva de los sistemas de inteligencia artificial, porque eso puede implicar la pérdida de buena parte de nuestras tradiciones”, sostuvo.

Qué esy qué no es Latam-GPT

Pese a su nombre, Latam-GPT no es un chatbot interactivo como otros sistemas populares. Se trata de una gran base de datos entrenada con información regional, pensada para servir como base en el desarrollo de aplicaciones tecnológicas adaptadas a realidades locales.

Para su entrenamiento se recopilaron más de ocho terabytes de información, equivalentes a millones de libros, principalmente en español y portugués, con el objetivo de incorporar en el futuro contenidos en lenguas indígenas.

Financiamiento e infraestructura

El desarrollo inicial de Latam-GPT demandó 550.000 dólares, financiados principalmente por el Banco de Desarrollo de América Latina (CAF), recursos propios y convenios institucionales.

La primera versión fue entrenada en la nube de Amazon Web Services, pero el proyecto contempla un salto tecnológico: durante el primer semestre de 2026 se entrenará en un supercomputador que será instalado en la Universidad de Tarapacá, con una inversión cercana a los 5 millones de dólares.

Alcances y límites del modelo

Según Álvaro Soto, director del Cenia, los grandes modelos desarrollados en otras regiones solo incorporan una pequeña fracción de datos latinoamericanos, lo que genera vacíos de información y sesgos culturales.

Boric ejemplificó que mientras batallas europeas como el sitio de Calais cuentan con abundante información en sistemas globales, hechos clave de la historia regional —como el sitio de Chillán en la independencia chilena— aparecen subrepresentados.

No obstante, el académico Alejandro Barros, de la Universidad de Chile, advirtió que Latam-GPT no puede competir en escala con los grandes modelos globales debido a la enorme brecha presupuestaria y de infraestructura.

Aplicaciones futuras y uso empresarial

Latam-GPT será una plataforma gratuita y podrá utilizarse para desarrollar soluciones adaptadas a necesidades locales, como herramientas para hospitales con problemas logísticos o de gestión de recursos médicos.

Una de las primeras empresas en adoptarlo será la chilena Digevo, que planea crear robots conversacionales para aerolíneas y empresas de comercio.

“Las compañías están muy interesadas en que los usuarios se expresen y reciban respuestas en lenguaje local”, explicó Roberto Musso, quien destacó la capacidad del modelo para reconocer jergas, modismos y reducir sesgos presentes en otros sistemas de IA.