El incendio de la IA: Cuando la casa ya está en llamas regular no es suficiente
El 26 de enero de 2025, la startup china DeepSeek revolucionó el panorama de la inteligencia artificial (IA) al presentar su modelo R1, desafiando los cimientos establecidos por gigantes tecnológicos. Hasta entonces, el desarrollo de la IA generativa dependía de inversiones colosales en investigación, talento especializado e infraestructura compuesta por miles de servidores y microchips de procesamiento de datos de última generación. Nvidia se destacó en este ámbito, produciendo las tarjetas de procesamiento más avanzadas que sustentaban el funcionamiento de las IA. Debido a su importancia estratégica, en octubre de 2022, el gobierno de Estados Unidos comenzó a regular la venta de estas tarjetas, implementando restricciones a la exportación de chips avanzados hacia China. Estas medidas se intensificaron en diciembre de 2024 y enero de 2025, ampliando las limitaciones a la exportación de microchips de IA y otros componentes tecnológicos hacia el país asiático.
La relevancia global de la IA ha crecido tanto que, al asumir su segundo mandato, Donald Trump anunció el 21 de enero de 2025 el Proyecto Stargate, una iniciativa que contempla una inversión de 500.000 millones de dólares en los próximos cuatro años. El objetivo es construir una red de centros de datos y consolidar el liderazgo estadounidense en inteligencia artificial. Su estrategia se enfoca en la rentabilidad y omite regulaciones, así como desestima los riesgos globales asociados al uso de estas tecnologías, permitiendo que las grandes corporaciones tecnológicas avancen sin restricciones y fomenten un aceleracionismo tecnológico desenfrenado.
La aparición del modelo R1 de DeepSeek, capaz de igualar las capacidades analíticas de ChatGPT, provocó un desplome en las acciones de OpenAI y, especialmente, de Nvidia que, en un solo día, vió el valor de sus acciones disminuir un 17%, lo que resultó en una pérdida de casi 600.000 millones de dólares en su capitalización de mercado. El desarrollo de DeepSeek requirió una inversión veinte veces menor y utiliza sólo una fracción de la capacidad de cómputo en comparación con su contraparte estadounidense. Este avance ha abierto nuevas posibilidades de investigación y ha avivado la esperanza de democratizar el acceso, desarrollo e implementación de estas tecnologías a nivel mundial, además de representar una victoria para la eficiencia y la tecnología china, así como para su modelo económico.
Además, DeepSeek es una solución de código abierto, lo que permite a cualquier país, sector productivo o educativo examinarlo, aprender de él y adaptarlo a sus propias necesidades. Esta apertura no solo fomenta la transparencia, sino que también impulsa la innovación y el conocimiento a nivel global.
En este contexto, la Unión Europea busca hacer frente a la hegemonía estadounidense en inteligencia artificial, proponiendo alternativas más seguras, abiertas y transparentes que le permitan competir en este campo. Con ese objetivo, el gobierno francés organizó la Cumbre de la Inteligencia Artificial en París, celebrada del 6 al 11 de febrero de 2025. Uno de los resultados destacados de la cumbre fue la firma de una declaración conjunta por parte de 60 países, incluyendo Francia, China e India, que subraya la importancia de un enfoque inclusivo y sostenible en el desarrollo de la IA.
Latinoamérica tampoco quiere quedarse atrás en el desarrollo de inteligencia artificial. Durante la cumbre, el Centro Nacional de Inteligencia Artificial (CENIA) de Chile anunció que en junio de 2025 presentará su propio modelo de lenguaje LLM (Large Language Model), denominado LatamGPT. Este tipo de modelo de inteligencia artificial, conocido como Large Language Model, es el motor que permite el funcionamiento de chats conversacionales, como ChatGPT.
CENIA es una organización privada sin fines de lucro, integrada por cuatro universidades y diversas entidades privadas y gubernamentales de Chile. Su trabajo en el desarrollo de LatamGPT comenzó en enero de 2022 con un doble propósito: comprender mejor el funcionamiento de esta tecnología y, al mismo tiempo, impulsar alternativas regionales en América Latina, permitiendo además una regulación más efectiva.
LatamGPT será de código abierto y estará destinado a fines académicos, de investigación y desarrollo, así como a otros usos no lucrativos. Su objetivo es proporcionar un motor de lenguaje adaptable a los contextos locales, facilitando el desarrollo de chatbots más adecuados para la región, soluciones multiagente (donde varios agentes de IA especializados interactúan entre sí) y otras aplicaciones que puedan beneficiarse de esta tecnología.
Según Rodrigo Durán[1], gerente del CENIA, el desarrollo de esta tecnología en Latinoamérica ha sido posible gracias a la cooperación de instituciones de países como Chile, México y Colombia, entre otros de la región. Para él, la importancia de esta iniciativa se basa en tres puntos clave.
En primer lugar, representa una ruptura del “techo de cristal” que históricamente ha limitado la percepción sobre las capacidades locales. Para así dejar de ser solo usuarios de esta tecnología, y convertirnos también en sus desarrolladores. En segundo lugar, el proyecto permitirá comprender mejor el funcionamiento de la inteligencia artificial generativa, lo que tiene aplicaciones prácticas tanto en su uso optimizado como en la prevención de riesgos y el aprovechamiento de oportunidades. Finalmente, el tercer aspecto clave es la necesidad de entender y anticipar los riesgos asociados a esta tecnología para regularlos y normarlos de manera adecuada, asegurando así un rol público que proteja a la población frente a sus posibles impactos en la región.
Uno de los aspectos más destacables de esta iniciativa es su enfoque ético en la obtención de datos. A diferencia de modelos como ChatGPT, Gemini o Llama, que han sido entrenados con datos recopilados sin consentimiento explícito, Latam GPT basa su estrategia en la solicitud de datos bajo autorización de las personas y entidades que participan en su desarrollo. Además, estos actores también forman parte del proceso de alineamiento del modelo, validando si sus respuestas son adecuadas o no.
Este enfoque inclusivo abarca a todos los países de América Latina y el Caribe. Aunque el proceso no es el más rápido ni el más eficiente, sí es el más trascendental, ya que las capacidades que se están construyendo no quedan en manos de un grupo reducido, sino que se extienden a toda la comunidad involucrada, fortaleciendo así el ecosistema regional de inteligencia artificial.
La Anticumbre
El filósofo y crítico de la inteligencia artificial, Eric Sadin, sostiene que regular estas tecnologías resulta insuficiente, ya que sus efectos sobre los seres humanos son y serán aún más devastadores. Por ello, organizó una contracumbre titulada “Por un humanismo de nuestro tiempo“, que se llevó a cabo el 10 de febrero de 2025 en París. Este evento reunió a investigadores, periodistas y profesionales de diversos sectores interesados en debatir las implicaciones éticas y sociales del desarrollo de la inteligencia artificial, reflexionando sobre las consecuencias negativas de esta transformación tecnológica. Mientras la hegemonía digital se centra en exaltar sus beneficios y en una carrera tecnológica y económica por definir qué región dominará y obtendrá mayores ganancias de la automatización y digitalización, Sadin advierte que este enfoque responde únicamente a intereses económicos, ignorando sus profundas implicaciones sociales, políticas y civilizacionales[2].
El objetivo fue dar voz a quienes ya experimentan los efectos de la inteligencia artificial en su vida cotidiana, evidenciando el impacto real de estas tecnologías. Se presentaron testimonios de traductores e intérpretes reemplazados por modelos de lenguaje, así como de editores de prensa que pronto podrían ser desplazados por algoritmos generativos. Estos relatos subrayan la urgencia de abordar las repercusiones laborales y culturales de la implementación indiscriminada de la inteligencia artificial.
La progresiva automatización de tareas intelectuales y creativas, tradicionalmente humanas, a través de modelos capaces de generar texto, imágenes y videos, no solo transforma el mercado laboral, sino que amenaza oficios que, a diferencia de trabajos repetitivos o extenuantes, son intrínsecamente satisfactorios, creativos y socialmente enriquecedores. La creciente sustitución de estos roles por algoritmos plantea un desafío inédito para la interacción humana, la cultura, la socialización y la construcción del conocimiento.
Durante la anticumbre, se destacó el valor del trabajo creativo e intelectual como una fuerza emancipadora del ser humano, esencial para su realización y crecimiento en distintos ámbitos. Sin embargo, estos espacios están siendo progresivamente desplazados por algoritmos generativos. Eric Sadin expresó su profunda indignación ante la carrera global por el desarrollo de la inteligencia artificial, la cual, según él, está llevando a la humanidad a un estado de creciente alienación. A medida que las personas quedan relegadas en la producción cultural e intelectual, el mundo que las rodea dejará de reflejarlas: lo que consumen, leen, escriben y piensan estará cada vez más mediado por sistemas automatizados.
En este escenario, Sadin plantea una pregunta inquietante: ¿cuál será el rol del ser humano en 2030? Si los sistemas informáticos asumen una parte creciente de la organización de la vida social y delegamos en ellos nuestras facultades más esenciales —escribir, hablar en primera persona, crear imágenes y sonidos— no solo perderemos empleos, sino que también renunciaremos a aspectos fundamentales de lo que nos define como seres humanos. ¿Es ese el futuro en el que queremos vivir?
Para Sadin, esta realidad conduce a lo que él llama el “estado vegetativo de la humanidad”, un futuro donde la sociedad estará completamente sumergida en pantallas y donde los niños ya no aprenderán a escribir, sino solo a generar “prompts” para interactuar con IAs.
La escritura, sostiene, es un vector fundamental del pensamiento y un medio de expresión singular que da forma a la identidad de cada individuo. Sin embargo, cada vez más estudiantes de colegios y universidades presentan trabajos generados por inteligencia artificial, sin haber leído ni investigado lo que los algoritmos han escrito por ellos. Ante este fenómeno, surge una pregunta crucial: ¿qué sentido tendrá la educación, las escuelas y las universidades en los próximos años?
Pese a la gravedad de estos dilemas, durante la cumbre de la IA en París no se abordaron estas preocupaciones.
Eric Sadin destaca que, en lo que respecta a la digitalización, las sociedades humanas suelen reaccionar demasiado tarde. Un ejemplo reciente de ello es la reflexión de Bill Gates sobre las redes sociales, quien reconoció que hemos sido ingenuos al no anticipar los efectos nocivos de su adopción generalizada. Sadin insiste en que la verdadera responsabilidad no consiste en alertar a la población cuando “la casa ya está en llamas”, sino cuando el incendio aún está en gestación, permitiendo tomar medidas preventivas a tiempo. Solo así podremos reaccionar antes de que el fuego se propague y se vuelva incontrolable, con consecuencias irreversibles para toda la sociedad.
En este sentido, Sadin critica la Cumbre de la IA en París, denominada “Cumbre para la acción sobre la inteligencia artificial”, por su falta de apertura al debate público. La población no tiene derecho a expresar su opinión ni su percepción sobre el impacto de esta tecnología, ya que el desarrollo de los algoritmos ha sido asumido como un camino inevitable, sin importar las consecuencias humanas. Esto plantea un grave problema democrático, pues se impone una transformación global desde arriba, sin espacio para la reflexión ni la disidencia. Ante este panorama, la cuestión central es cómo hacer valer los principios y facultades humanas en un mundo cada vez más mediado por la inteligencia artificial.
Pretender que algún país o región se mantenga al margen de esta carrera algorítmica es, según Sadin, una postura utópica. El utilitarismo tecnológico está arraigado en los propios individuos, quienes adoptamos estas herramientas sin cuestionar sus efectos colaterales. Sin embargo, es fundamental tomar conciencia de que estas tecnologías no solo amenazan nuestra autonomía, sino también valores esenciales como la libertad, la integridad, la dignidad humana, la creatividad y la sociabilidad. La hiperconectividad nos empuja hacia un aislamiento colectivo, al tiempo que la expansión de estos sistemas pone en riesgo la preservación de la biosfera, debido a su enorme demanda de recursos energéticos y minerales.
La organización de cumbres tecnológicas y, en particular, de contracumbres como ésta, es esencial para abordar de manera crítica y autocrítica el solucionismo tecnológico en el que estamos inmersos. Es necesario que se establezca un diálogo social entre los Estados, las empresas y la sociedad civil que permita establecer estrategias para abordar esta problemática.
Es fundamental ir más allá de analizar únicamente los beneficios o desventajas de estas tecnologías y reconocer que, como advirtió Guy Debord en “La sociedad del espectáculo” (1967), la manipulación de la imagen y la dominación mediática han evolucionado hasta el punto de que los algoritmos configuran nuestra percepción de la realidad, situándonos en una guerra cognitiva global. En esta contienda, grandes corporaciones tecnológicas y financieras, junto con la industria armamentística de las potencias mundiales, emplean su dominio tecnológico para apropiarse del territorio mental de las sociedades, revitalizando un armamento ideológico favorable a sus intereses. Para contrarrestar esta influencia, es crucial desintoxicarnos del consumismo digital, tomar decisiones informadas y educar a la población sobre estos acontecimientos, permitiéndonos elegir conscientemente en qué tipo de vida y de futuro deseamos existir.
[1] https://www.youtube.com/watch?v=0TzptxCnayk
[2] https://www.youtube.com/watch?v=pRe19BoA6Ao