Khari Johnson
CalMatters
El 28 de agosto, los legisladores californianos aprobaron en una votación clave un controvertido proyecto de ley que exige a las empresas que fabrican o modifican potentes formas de inteligencia artificial que comprueben su capacidad para provocar daños críticos a la sociedad.
Tras una votación de 32-1 en el Senado en mayo, la Asamblea votó 41-9 para aprobar el proyecto de ley el miércoles por la tarde. El Senado debe realizar una votación más para que el proyecto de ley llegue al gobernador Gavin Newsom, de acuerdo con las enmiendas de la Asamblea.
Según el proyecto de ley 1047 del Senado, las empresas que inviertan 100 millones de dólares en entrenar un modelo de inteligencia artificial o 10 millones de dólares en modificar uno deben probar la capacidad del modelo para permitir ataques a la ciberseguridad o a infraestructuras o el desarrollo de armamento químico, biológico, radiactivo o nuclear.
Ocho congresistas que representan a distritos de California tomaron a principios de mes la inusual medida de instar a Newsom a vetar la ley. No está claro si lo hará. En mayo, en un simposio sobre IA generativa exigido por una orden ejecutiva que firmó, Newsom dijo que California debe responder a las peticiones de regulación, pero evitando el exceso de regulación. California es sede de muchas de las empresas de IA más importantes del mundo.
Poderosos intereses se alinearon a favor y en contra del proyecto de ley. Se han opuesto empresas como Google y Meta, el fabricante de ChatGPT OpenAI, la incubadora de startups Y Combinator y Fei-Fei Li, asesor del Presidente Joe Biden y coorganizador del simposio sobre IA generativa encargado por Newsom. Argumentan que los costes de cumplimiento de la ley perjudicarán al sector, sobre todo a las nuevas empresas, y desincentivarán la publicación de herramientas de IA de código abierto, ya que las empresas temerán incurrir en responsabilidad legal en virtud de la ley.
Denunciantes que trabajaron en OpenAI y Anthropic, una empresa cofundada por antiguos empleados de OpenAI, apoyan el proyecto de ley. También están a favor del proyecto de ley Elon Musk, consejero delegado de Twitter, que ayudó a fundar OpenAI, y Yoshua Bengio, investigador de IA frecuentemente citado. Argumentan, en parte, que las herramientas de IA plantean daños significativos y que el gobierno federal no ha hecho lo suficiente para hacer frente a esos daños, incluso a través de la regulación.
El senador Scott Wiener, demócrata de San Francisco y autor del proyecto de ley, ha dicho que el propósito del SB 1047 es codificar las pruebas de seguridad que las empresas ya acordaron con el Presidente Biden y líderes de otros países.
«Con esta votación, la Asamblea ha dado un paso verdaderamente histórico al trabajar de forma proactiva para garantizar que una nueva y apasionante tecnología proteja el interés público a medida que avanza», declaró Wiener en un comunicado de prensa el miércoles.
El año pasado, las principales empresas de IA llegaron a acuerdos voluntarios con la Casa Blanca y los dirigentes gubernamentales de Alemania, Corea del Sur y el Reino Unido para poner a prueba sus modelos de IA en busca de capacidades peligrosas. En respuesta a la oposición de OpenAI al proyecto de ley, Wiener rechazó la afirmación de que la aprobación del SB 1047 provocará que las empresas abandonen el estado, calificándola de argumento «manido».
Wiener dijo que se hicieron afirmaciones similares cuando California adoptó leyes de neutralidad de la red y privacidad de datos en 2018, pero esas predicciones no se hicieron realidad.
Los críticos del proyecto de ley, entre ellos OpenAI, han dicho que preferirían que el Congreso regulara la seguridad de la IA antes que tenerla regulada a nivel estatal. Wiener dijo el lunes que está de acuerdo y que probablemente no habría propuesto la SB 1047 si lo hubiera hecho el Congreso. Añadió que el Congreso está paralizado y que «aparte de prohibir TikTok no ha aprobado una regulación tecnológica importante desde los años 90».
El SB 1047 pasó por varias rondas de enmiendas en su camino hacia la aprobación. El copatrocinador Ari Kagan, cofundador de Momentum, fabricante de herramientas de IA, dijo en julio a los legisladores que la aprobación de la SB 1047 es necesaria para evitar una catástrofe de IA similar a la de Chernóbil o Three Mile Island. A principios de este mes, declaró a CalMatters que las enmiendas que eliminaban la División de Modelos Fronterizos, que inicialmente formaba parte del proyecto de ley, debilitaban la legislación, pero afirmó que seguía apoyando su aprobación.
Además del SB 1047, a principios de esta semana la Legislatura de California aprobó leyes que obligan a las grandes plataformas en línea, como Facebook, a retirar deepfakes relacionados con las elecciones y a crear un grupo de trabajo para orientar a las escuelas sobre cómo utilizar la IA de forma segura. Otros proyectos de ley sobre IA que se someterán a votación esta semana incluyen un proyecto de ley para facultar al Departamento de Derechos Civiles para combatir la discriminación automatizada, exigir a los creativos que obtengan permiso antes de utilizar la semejanza de la voz, el cuerpo o el rostro de una persona muerta en cualquier capacidad, y medidas adicionales para mantener a los votantes a salvo de deepfakes engañosos.
De acuerdo con una orden ejecutiva sobre IA generativa, se espera que la Agencia de Operaciones Gubernamentales de California publique en las próximas semanas un informe sobre cómo la IA puede perjudicar a las comunidades vulnerables.