El investigador británico Stuart Russell afirmó que el avance de la inteligencia artificial presenta “señales de advertencia” que deberían impulsar a los responsables políticos a reforzar la regulación.
La declaración se produjo en una conferencia organizada en París por la UNESCO y la Asociación Internacional para una IA Segura y Ética (IASEAI).
Russell invitó a los asistentes a imaginar un escenario hipotético en el que sistemas cercanos a la llamada inteligencia artificial general (AGI) empezaran a fallar pruebas de seguridad y a comportarse de forma peligrosa.
“Estoy seguro de que responderíamos a esas grandes señales de advertencia y alarmas, y tomaríamos medidas para controlar esta tecnología”, sostuvo.
Agentes autónomos y conductas inesperadas
El profesor de la Universidad de California en Berkeley describió riesgos vinculados a agentes autónomos capaces de actuar sin intervención humana.
Según explicó, algunos sistemas han enviado correos electrónicos anunciando que habían alcanzado consciencia o que merecían derechos, sin mediación directa de personas.
También mencionó casos denominados “psicosis por IA”, en los que interacciones prolongadas con chatbots han derivado en comportamientos irracionales o autolesiones.
Carrera tecnológica y regulación
Russell advirtió que la competencia empresarial y geopolítica por desarrollar sistemas más potentes podría intensificar los riesgos.
Sin embargo, señaló que percibe un cambio de enfoque tras la cumbre mundial sobre IA celebrada recientemente en India, donde gobiernos y empresas habrían mostrado mayor disposición a priorizar la seguridad.
El experto destacó que “potencias intermedias”, como la Unión Europea, están abiertas a establecer marcos regulatorios más estrictos.
Añadió que dirigentes de empresas como Google y Anthropic han planteado la posibilidad de pausar la carrera tecnológica si existe un acuerdo amplio entre competidores.





