Economia
Laurence Devillers, profesora de Ciencias de la Computación de la Universidad París-Sorbona: “Lo que ha hecho Trump, decir que desregulemos todo, es una pesadilla”
Published
9 hours agoon
El doctor en Informática por la Universidad Paris-Sud y profesor de Informática en la Universidad Paris-Sorbonne, Laurence Devillers, es experto en computación afectiva en el campo de la interacción humano-robot, tema que ha llevado a investigar los aspectos éticos involucrados.
Devillers participó por segunda vez como ponente en el Congreso Futuro 2025 que se llevó a cabo la semana pasada. En 2024 habló de interacción humano-robot y este año en su charla, “IA generativa y chatbot: cuestiones éticas”, profundizó en los riesgos asociados a la inteligencia artificial generativa, aquella capaz de crear nuevos contenidos -texto, audio o vídeo-. desde un mensaje de texto, como ChatGPT de OpenAI.
“Existe el riesgo de que la gente confunda la máquina con un ser humano. Para mí una explicación es que es una caja muerta, porque hay mucha gente involucrada en este campo, aunque no podemos explicarlo todo”.
Tras su conferencia, en una entrevista con DF abordó los aspectos éticos que rodean el desarrollo de la IA generativa y nuevos agentes de IA, como los sesgos algorítmicos y la influencia de los grandes modelos de lenguaje en los humanos. También criticó la intención del presidente estadounidense, Donald Trump, de desregular la industria tecnológica.
“Lo que ha hecho Trump, decir que desregulamos todo, es una pesadilla” y añadió que su principal preocupación es Elon Musk, porque es “un auténtico transhumanista que no tiene límites”.
– ¿Cómo ves la evolución de la IA generativa hacia agentes de IA, capaces de ejecutar acciones?
– Los agentes autónomos son un tema enorme. En mi charla hablé sobre la IA generativa y estos chatbots. Los últimos algoritmos para chatbots utilizan objetivos. Entonces le damos a la máquina un objetivo y puede utilizar una gran cantidad de datos. Por lo tanto, puede resolver muchas cosas, pero no es una IA general o AGI (IA hipotética capaz de imitar las capacidades intelectuales de los humanos), porque no tiene conciencia y no tiene una intención real, solo un objetivo que le ha asignado un ingeniero.
– ¿Considera lejano el desarrollo de la IA general?
– Estamos muy lejos si utilizamos este tipo de tecnología. La IA generativa no es la última que tendremos en inteligencia artificial. El próximo tendrá objetivos y tal vez, como mencioné en mi charla, alguna información sobre el contexto espaciotemporal, porque la máquina, con ese tipo de datos, puede construir un modelo de sentido común. Y esto es mucho más potente si se desarrolla algo que permita a la máquina razonar. La nueva máquina será un híbrido entre IA generativa y una IA más tradicional basada en ejemplos.
Riesgos éticos
En su intervención en el Congreso Future 2025, la experta señaló que los cambios sociales y económicos derivados de la IA generativa y los chatbots conllevan riesgos. Entre ellos, la manipulación sin responsabilidad de los usuarios, ya que la IA generativa “puede mentir sin intención”; afectar el multilingüismo y la diversidad cultural; proyectar cualidades humanas en las máquinas; afectan la educación y el aprendizaje humano; y aumentar el consumo de energía.
“El sesgo no es un problema porque siempre hay sesgo. Es imposible construir una máquina sin prejuicios (…) Por eso debemos evitar ciertas aplicaciones, como el death bot, aquellas que buscan imitar a las personas.”
Aun así, se define como tecnooptimista, debido al potencial de los robots para ayudar a los humanos.
– ¿Cuáles son los principales problemas éticos asociados a la IA generativa?
– Existe el riesgo de que se confunda la máquina con un ser humano. Para mí, una explicación es que es una caja muerta, porque hay mucha gente involucrada en este campo, aunque no podemos explicarlo todo. Conocemos el concepto, sabemos cómo se entrena la máquina, pero no puedo explicar cómo ciertos parámetros contienen este tipo de información. Sin embargo, sé cómo aprende, y por eso digo que no hay inteligencia en ese sentido. Es estadístico.
Y aunque matemáticamente llegamos a diseñar ciertas cosas, hay mucha aleatoriedad. Y no es tan fácil decir que el problema está relacionado con esto o con los datos con los que se entrenó el modelo, porque nuestros datos no son estables y hay mucho sesgo y discriminación. La máquina aprende lo que le damos. Mi principal preocupación es la aplicación, por ejemplo, en ciberseguridad.
– ¿Se pueden evitar o corregir los sesgos algorítmicos?
– El sesgo no es un problema porque siempre hay sesgo. Es imposible construir una máquina sin prejuicios. Estamos construyendo algo que no es neutral. Google construyó un modelo intentando evitar la discriminación, que solo aparecieran personas blancas, pero al final consiguió todo lo contrario, y todas las imágenes que dibujaba la máquina eran negras o de otros orígenes étnicos. Es muy difícil modificar el resultado del sistema debido a los datos. Así que debemos evitar ciertas aplicaciones, como death bot, como aquellas que buscan imitar a las personas.
– ¿Tienen los gigantes tecnológicos mecanismos para evitar el impacto de los prejuicios en las personas?
– No tienen ninguna responsabilidad legal, porque la gente firma un contrato para utilizar la máquina. Pero tienen responsabilidad, por supuesto. Por ejemplo, en Estados Unidos un adolescente de 14 años utilizó Character AI, una nueva empresa donde puedes crear, hablar o tener una relación con un personaje, por ejemplo, de Juego de Tronos. La adolescente se enamoró del personaje y se suicidó. Hay una línea que dice “evitar el suicidio”, pero en la práctica ese no es el caso. Y hoy la principal patología es la depresión y la soledad. Entonces, lo que Trump ha hecho, diciendo que desregularemos todo, es una pesadilla.
Unión Europea y Estados Unidos
-¿Cómo ve la dupla Trump-Musk y qué impacto puede tener en la industria tecnológica?
– Elon Musk es muy inteligente, pero también es un transhumanista. Multiplica la fortuna por cuatro, es empresario. Ahora está con el Presidente de los Estados Unidos y está trabajando en cosas increíbles. Prometió ser eficiente y tener menos gente involucrada en el Gobierno. Ve la oportunidad y no tiene límites ni lógica. Más bien, la lógica de Trump es económica. Creo que chocarán y él no estará mucho tiempo en el Gobierno.
-La UE tiene regulaciones sobre IA y protección de datos, pero EE.UU. tiene grandes empresas tecnológicas. ¿Pueden los modelos de IA generativa y la desinformación de las redes sociales afectar a los europeos?
– En Estados Unidos hay demasiadas historias de suicidios y otras cosas horribles, por eso, el pueblo estadounidense le dirá a Trump, “no juegues con nuestros hijos”. El problema está dentro de ese país.
En Europa somos más cautelosos, más preocupados por la sociedad, la humanidad, los derechos, la unidad de la humanidad, etc. Muchas personas que conozco han sido duramente afectadas por X y ya no están en esa red social. Mucha gente se va. Si siguen así, no habrá más personas en Francia ni en Europa en este tipo de redes. Podemos hacerlo, los consumidores tenemos mucho poder en Francia.
– En febrero París acogerá la AI Action Summit. ¿Qué expectativas tienes?
– Ninguno. Me gusta este Congreso Futuro de Chile, porque están preocupados por los derechos humanos, la dignidad humana, y tratan de darle sentido. En París este no es el caso. Es sólo cooperación económica. Me reuní dos veces con el presidente (Emmanuel) Macron, él quiere que grandes empresas vayan a Francia. ¿Cuál es el resultado? Todos nuestros mejores investigadores están involucrados en estas grandes tecnologías. Y no es para nosotros.
Pero ahora tenemos una estrategia económica con esta gran tecnología y la oportunidad durante cuatro años de construir algo que sea soberano con nuestra plataforma.
En verano, Microsoft tuvo un problema con el módulo de ciberseguridad y todo en el mundo se paró. Bien, dependemos de esta tecnología. Y si Trump decide que desregularemos, ¿qué haremos con eso? Nada.
Ahora es el momento de ser conscientes de todos estos riesgos y hacer algo más. En Francia hemos construido algunas cosas interesantes en términos de instituciones, pero no hemos hecho nada por la educación. Es una pesadilla, porque el futuro talento de los ingenieros debería ser más consciente de este problema ético y también ecológico. Nos perdemos muchas cosas porque la educación no está a la altura.
You may like
-
¿Por qué Elon Musk hizo un saludo nazi en un mitín?
-
La banca y el retail financiero celebran que Hacienda incluyera a las tarjetas de prepago en el nuevo control del SII a las transferencias
-
Kast en picada contra Boric por pensiones
-
Fusión Bicecorp y Grupo Security: Felipe Jaque asumirá como economista jefe de la nueva entidad
-
Cientos de parejas LGBTQ+ dieron el “sí” en Tailandia tras entrar en vigor el matrimonio igualitario
-
Corte Suprema da portazo a 23 exportadoras chilenas y rechaza recurso de queja en medio de demanda contra MSC