
La Red Académica de Gobierno Abierto (RAGA) reinició sus conversatorios 2025 con un encuentro en el que se abordó el “Impacto de la IA: riesgos y dilemas, democracia y gobernanza”. Participé junto a Edgar Ruvalcaba (México), Ester Kaufman (Coordinadora Internacional de RAGA), con la coordinación de Carlos Gutierrez (Colombia).
Lo que sigue es un resumen de las exposiciones realizado con NotebookLM
Podcast (generado automáticamente por NotebookLM)
La Inteligencia Artificial como Fenómeno Multidimensional (Patricia Bertolotti)
Patricia Bertolotti enfatiza que la IA debe ser vista como un fenómeno multidimensional que abarca aspectos técnicos, económicos, geopolíticos, sociales y, fundamentalmente, humanos.
- Emergencia y Naturalización: La IA, al igual que otras tecnologías digitales, se ha vuelto tan naturalizada que a menudo es invisible en nuestra vida diaria, a pesar de ser “agentes que van conformando, creando sentido, creando subjetividades y mediando en las sociedades”.
- Contraste con Internet: A diferencia de Internet, que surgió de la colaboración académica y la búsqueda del bien común, la IA “se genera y se produce en empresas privadas que compiten entre sí por la supremacía tecnológica y que han invertido miles y millones de dólares que por supuesto buscan recuperar en esas inversiones”.
- Concentración Económica y “Caja Negra”: Existe una “concentración tremenda” de poder en unas pocas empresas tecnológicas (Microsoft, Google, Amazon, Meta, Nvidia, Oracle). Los algoritmos de IA son complejos y opacos (“caja negra”), sin voluntad de las empresas de compartirlos debido a sus secretos comerciales y las vastas inversiones.
- Dimensión Geopolítica: La IA no es “tan artificial” como parece, ya que se sustenta en una “economía extractiva” (litio, uso energético) y flujos globales definidos. Se denuncia el “trabajo mal pago de gente de América Latina o de África para entrenar a los modelos de inteligencia artificial”, evidenciando una división global entre desarrolladores y mano de obra barata.
- Impacto Humano y Ético: La IA nos interpela éticamente al crear una inteligencia que “podría llegar a ser superior a la humana” y está “cambiando la forma en que pensamos”. Plantea desafíos como la desinformación, la manipulación, la vigilancia, la pérdida de privacidad y la ampliación de desigualdades.
- Repolitizar la Técnica: Bertolotti, citando a Yuk Hui, aboga por “repolitizar la técnica”, es decir, pensar la IA no como un destino impuesto, sino desde nuestras propias “cosmogonías culturales”, especialmente latinoamericanas. La pregunta clave es: “¿qué tipo de cosmotécnica queremos? ¿una que profundice la concentración y la desigualdad o una que abre espacios de justicia, inclusión y soberanía?”.
Gobernanza de la IA y el rol del Estado (Edgar Ruvalcaba)
Edgar Ruvalcaba enfatiza la necesidad urgente de una gobernanza algorítmica para asegurar que la IA beneficie a la sociedad y no sea acaparada por unos pocos.
- Cambio Fundamental: La IA está “cambiándolo todo”, desde la forma de pensar hasta los medios de producción y las relaciones humanas. Los gobiernos no son ajenos a esta disrupción.
- Necesidad de Gobernanza: Es crucial establecer marcos regulatorios para que la IA “sea aprovechada para bien y no sea optada por unos cuantos con fines personales, económicos, de control y de manipulación”.
- Límites Éticos y Protección Humana: Un límite fundamental en el desarrollo de la IA debe ser “no dañar a las personas”. Los algoritmos son difíciles de escrutar y de hacer rendir cuentas, lo que es peligroso cuando toman decisiones sin filtros éticos.
- Disputa de Poder y Modelos Reguladores: China y Estados Unidos se disputan el control de la IA, mientras que la Unión Europea se enfoca en “proteger al ciudadano”, regulando a las empresas y respetando la autonomía humana, la rendición de cuentas, la justicia y la no discriminación. Latinoamérica es principalmente “espectadora”.
- Algorética: Ruvalcaba introduce el concepto de “algorética“, que es la “urgencia de la necesidad de incorporar elementos éticos a las máquinas que están tomando decisiones y a los algoritmos”. La IA debe ayudar a “llevarnos a un mejor camino como sociedad”.
- Desafíos a la Democracia: La IA puede influir en la toma de decisiones políticas, ofreciendo respuestas a gobernantes que podrían reemplazar la deliberación humana. Existe un riesgo de “manipulación algorítmica” que afecte la libertad de elección y pensamiento de los ciudadanos.
- Diálogo Plural y Multidisciplinar: La gobernanza debe ser un “diálogo a nivel global” que incluya a grandes organizaciones, empresas, instituciones públicas, la academia (investigadores, politólogos, filósofos, ingenieros, abogados). Es peligroso dejar el desarrollo de esta tecnología “solamente en manos de las tecnológicas o perfiles de ingenieros”.
- La IA no puede ser una “zona sin ley”: Se debe “poner límites e incentivar lo que sí queremos de la inteligencia artificial y prohíban lo que no queremos”. Un buen uso de la IA, con gobernanza democrática, puede mejorar la calidad de vida, la salud y la educación. El riesgo es una “disminución de la inteligencia humana” si se deja que la IA nos controle.
Gobierno Abierto y la humanización de la IA (Ester Kaufman)
Ester Kaufman propone la “inteligencia artificial abierta” como un camino para “descomprimir” y “aperturar” los desarrollos de la IA, devolviéndoles su humanidad y protegiendo la democracia.
- Repolitizar y Humanizar: Coincidiendo con Bertolotti, Kaufman aboga por “repolitizar la técnica, humanizar la inteligencia artificial”. Los impactos de la IA son peligrosos si no se analizan sus riesgos para la democracia.
- Amenaza a la Democracia y Populismo: La IA facilita “sistemas de mensajes muy compactos muy pequeños muy que apuntan a las emociones”, lo que puede “inundarnos de emociones, inundarnos de polarización, inundarnos de burbujas donde nosotros no estamos pudiendo ver qué es lo que le pasan le pasa a los otros”. Esto genera “individuos desconectados” y una “democracia sumamente débil”.
- Diferencia entre Inteligencia Humana y Artificial: La IA se basa en “cálculos, correlaciones y patrones”, mientras que la inteligencia humana opera en la incertidumbre, las proyecciones futuras y la imaginación de “una sociedad mejor”. Los datos capturados por la IA pueden llevar a la “manipulación, la microsegmentación de audiencias, la generación de mensajes que son de de ira y odio”.
- Desmantelamiento Institucional y el Estado: Los populismos, alimentados por la IA, promueven “democracias directas donde las instituciones no existen”, buscando reemplazar funciones estatales con desarrollos tecnológicos. Esto nos deja “capturados precisamente por estas cajas negras que no sabemos de qué de qué se trata”.
- Coccreación y Transparencia Algorítmica: Se reclama la “cocreación” que caracterizó los inicios de Internet. El gobierno abierto exige “transparencia algorítmica”, pero Kaufman propone ir más allá: “historizar cómo estos desarrollos han han sido creados, generar una especie de genealogía de la transparencia algorítmica”. Esto permitiría “visualizar cuántos intereses de múltiples de múltiples dimensiones están enquistadas en cada desarrollo”.
- Rol de la Academia: La academia tiene un papel “sumamente relevante” en fomentar el “pensamiento crítico” para contrarrestar las “post-verdades” y la polarización generada por la IA. Se debe “incentivar el sector educativo en general y el sector académico en particular desarrollando todo lo que nos puede liberar de estas post-verdades”.
- Pensamiento Contradictorio y Diversidad: La inteligencia humana, a diferencia de la IA, es capaz de “contener en sí mismo los pensamientos contradictorios”. La educación debe fomentar esto para “asumir una complejidad que cada vez es más difícil de asumir con estas confrontaciones donde todo está sumamente simplificado”.
- Recuperar lo Humano: Es fundamental “apropiarse nuevamente de lo humano, de la creación”. No debemos caer en la “reificación” de la IA como algo autónomo e incontrolable.
Cierre
Los ponentes concluyen con un llamado a la acción:
- Patricia Bertolotti: La IA es una “creación humana y que podemos adaptar y apropiarnos de ella desde nuestras propias culturas y saberes”.
- Edgar Ruvalcaba: Es esencial “impulsar marcos de gobernanza, estrategias para que sea la ciudadanía, los poderes legítimos en colaboración con diferentes actores sociales quienes construyamos el camino para avanzar con esta tecnología”. La IA “no puede ser una zona sin ley”.
- Ester Kaufman: Se debe “tratar de ser más humanos y menos tecnológicos”, recuperando “la fuerza de la creación o de la co-creación conjunta” y no permitiendo que las creaciones adquieran una autonomía que les reconocemos erróneamente. Es fundamental que existan reglas y control institucional.