o1_STEPHANIE LECOCQPOOLAFP via Getty Images_EUdataact Stephani Lecocq/Pool/AFP via Getty Images

Cómo cerrar la brecha de la normativa sobre IA

PARÍS – El 22 de marzo el Instituto Future of Life publicó una carta abierta en la que solicitaba que se suspenda por seis meses el desarrollo de los sistemas de inteligencia artificial generativa y mencionaba los potenciales peligros que implican para la humanidad. Desde su publicación, numerosas figuras de alto perfil plantearon temores similares (entre ellas, Geoffrey Hinton, el pionero de la IA que renunció hace poco a su puesto en Google para dar la alarma sobre la «amenaza existencial» que implica la tecnología en cuyo desarrollo tuvo un papel fundamental).

No debemos desestimar la gravedad de esas advertencias. Los pedidos para que el gobierno intervenga rara vez surgen de las empresas tecnológicas, que en los últimos años resistieron ferozmente los esfuerzos de los responsables de las políticas estadounidenses y europeas por regular la industria; pero dada la promesa económica y estratégica de la IA generativa, no se puede esperar que el desarrollo se detenga o desacelere por sí solo.

Mientras tanto, los miembros del Parlamento Europeo votaron a favor de una versión más restrictiva de la Ley de IA —el marco regulatorio de referencia diseñado para abordar los desafíos que plantean los sistemas de IA «tradicionales»— en un intento por adaptarla a los llamados «modelos fundacionales» y sistemas de IA generativa avanzada como el GPT-4 de OpenAI. Como uno de los principales negociadores de las revolucionarias Leyes de Mercados Digitales (LMD) y de Servicios Digitales (LSD) de la Unión Europea, reconozco la importancia de crear un mundo digital centrado en los humanos y mitigar los impactos potenciales negativos de las nuevas tecnologías, pero la velocidad a la que la UE está creando medidas restrictivas es preocupante por diversos motivos.

https://prosyn.org/n64OOWDes