CA tiene 30 nuevas propuestas para frenar la IA. Trump podría complicarlas.

El presidente Trump está adoptando un enfoque sobre la IA muy diferente al de la administración Biden, y podría afectar la forma en que California regula la inteligencia artificial.
Los legisladores californianos proponen regulaciones para proteger a las personas y a la sociedad de las consecuencias imprevistas de la inteligencia artificial. En cambio, la administración Trump busca evitar una regulación excesiva. Photo Credit: Illustration by Gabriel Hongsdusit / CalMatters

Khari Johnson
CalMatters

La IA puede eliminar las restricciones racistas en los convenios de vivienda y ayudar a las personas a acceder a prestaciones gubernamentales, o puede negarles atención médica o una hipoteca basada en su raza. Por eso, el mes pasado, por tercer año consecutivo, la asambleísta demócrata Rebecca Bauer-Kahan, de San Ramón, propuso un proyecto de ley para proteger a las personas de la discriminación automatizada y de la IA, que toma decisiones cruciales con el poder de cambiar la vida de una persona.

De aprobarse, el Proyecto de Ley 1018 de la Asamblea exigirá a los creadores de IA evaluar el rendimiento de la tecnología antes de su uso y notificar a las personas antes de que la IA tome decisiones sobre empleo, educación, vivienda, atención médica, finanzas, sentencias penales y acceso a servicios gubernamentales. También otorgaría a las personas el derecho a optar por no usar la IA y a apelar una decisión tomada por un modelo de IA.

Este año, legisladores de California como Bauer-Kahan están avanzando con 30 proyectos de ley para regular cómo la IA impacta a los individuos y a la sociedad, y algunos de los esfuerzos más destacados son los que los legisladores intentaron el año pasado solo para verlos vetados por el gobernador Gavin Newsom o no aprobarse.

Además del proyecto de ley que protege contra la discriminación automatizada, los legisladores volverán a considerar otras leyes para proteger a la sociedad de la IA, incluido un proyecto de ley que requiere un conductor humano en vehículos comerciales y una nueva versión de una medida que anteriormente pretendía obligar a las empresas a examinar mejor si la IA puede causar daño.

La nueva ola de propuestas sigue a un lote de más de 20 leyes de IA que Newsom firmó el año pasado, pero están avanzando en un entorno político muy diferente.

El año pasado, la administración Biden apoyó medidas para proteger a las personas de los prejuicios y la discriminación, y grandes empresas firmaron compromisos para desarrollar IA responsablemente. Sin embargo, hoy, bajo la presidencia de Donald Trump, la Casa Blanca se opone a la regulación, y empresas como Google están revirtiendo sus propias normas de IA responsable. En su primer día en el cargo, Trump anuló una orden ejecutiva de Biden destinada a proteger a las personas y a la sociedad de la IA.

Esa disonancia podría, en última instancia, beneficiar a los legisladores californianos que buscan mayores protecciones para la IA. En un mundo de órdenes ejecutivas rápidas de la Casa Blanca y una toma de decisiones caótica, impulsada por la IA por parte de DOGE, habrá más interés en que los legisladores estatales regulen la IA, afirmó Stephen Aguilar, director asociado del Center for Generative AI and Society de la Universidad del Sur de California.

“Creo que California, en particular, está en condiciones de decir: ‘De acuerdo, necesitamos medidas de mitigación ahora que la gente está llegando con una bola de demolición'”, dijo.

Los proyectos de ley deberán pasar por Newsom, quien el año pasado vetó proyectos de ley destinados a proteger a las personas de los camiones autónomos y los robots armados, y a establecer estándares para los contratos de IA firmados por agencias estatales. Cabe destacar que Newsom vetó lo que se presentó como el esfuerzo más exhaustivo para regular la IA, al obligar a realizar pruebas de modelos de IA para determinar si podrían provocar muertes masivas, poner en peligro la infraestructura pública o facilitar ciberataques graves.

Newsom vetó los proyectos de ley sobre camiones autónomos y pruebas de IA, en parte porque consideraba que podrían obstaculizar la innovación. Posteriormente, creó un grupo de trabajo sobre IA para equilibrar la innovación con las barreras de seguridad. Este grupo debería publicar recomendaciones sobre cómo lograr ese equilibrio en las próximas semanas.

El senador demócrata Scott Wiener de San Francisco, quien impulsó el importante proyecto de ley sobre IA, volvió a presentar una versión de dicha propuesta el mes pasado. En comparación con el año pasado, el proyecto de ley se limita a la protección de los denunciantes de IA y al establecimiento de una nube estatal para facilitar la investigación en interés público. Un exempleado de OpenAI que presenció una violación de la política de seguridad interna declaró a CalMatters que la protección de los denunciantes es necesaria para mantener la seguridad de la sociedad.

Bauer-Kahan fue la primera legisladora estatal en proponer una ley que contiene la Carta de Derechos de la IA, un conjunto de principios que la administración Biden e investigadores de justicia tecnológica consideraron fundamentales para proteger los derechos de las personas en la era de la IA, incluyendo el derecho a vivir sin discriminación, el derecho a saber cuándo la IA toma decisiones importantes sobre su vida y el derecho a saber cuándo se utiliza un sistema automatizado. No se convirtió en ley, pero aproximadamente una docena de estados han aprobado o están considerando leyes similares, según Consumer Reports.

En una conferencia de prensa para reintroducir su proyecto de ley, Bauer-Kahan dijo que la postura de la administración Trump sobre la regulación de la IA cambia “la dinámica para los estados”.

“Es más responsabilidad nuestra”, dijo, señalando la derogación de una orden ejecutiva influenciada por la Carta de Derechos de las Personas con Inteligencia Artificial y el estancamiento de la Ley de Derechos Civiles de las Personas con Inteligencia Artificial en el Congreso.

La historia de dos administraciones en París

A principios de este mes se pusieron de manifiesto perspectivas contrapuestas sobre cómo Estados Unidos y el resto del mundo deberían regular la IA, en una cumbre a la que asistieron directores ejecutivos y jefes de estado en París.

En una cena de trabajo privada ofrecida por el presidente Emmanuel Macron en el Palacio del Elíseo, junto con personalidades como Sam Altman, director ejecutivo de OpenAI, y el canciller alemán Olaf Scholz, Alondra Nelson, autora de la Carta de Derechos de la IA y exdirectora de la Oficina de Política Científica y Tecnológica, instó a los líderes empresariales y gubernamentales a descartar ideas erróneas sobre la IA, como que su propósito es la escalabilidad y la eficiencia. La IA puede acelerar el crecimiento, pero su propósito es servir a la humanidad.

“No es inevitable que la IA genere grandes beneficios públicos”, afirmó en su intervención en el evento. “Podemos crear sistemas que amplíen las oportunidades en lugar de concentrar el poder. Podemos desarrollar tecnología que fortalezca la democracia en lugar de socavarla”.

En contraste, el vicepresidente J.D. Vance, en el mismo evento, afirmó que Estados Unidos luchará contra lo que denominó una regulación excesiva de la IA. Estados Unidos se negó a firmar una declaración internacional para “garantizar que la IA sea abierta, inclusiva, transparente, ética, segura y confiable”.

La posición de la administración Trump de que la regulación es una amenaza para la innovación en IA refleja los argumentos de grandes empresas como Google, Meta y OpenAI que presionaron contra la regulación el año pasado.

El debate sobre si regular la IA surge en un momento en que Elon Musk, el presidente Trump y un pequeño grupo de tecnólogos buscan construir y utilizar IA dentro de numerosas agencias federales para mejorar la eficiencia y ahorrar dinero.

Estos esfuerzos corren el riesgo de recortar las prestaciones de quienes dependen de ellas. Un informe publicado a finales de 2024 por la organización sin fines de lucro TechTonic Justice, con sede en California, reveló que la IA influye en los servicios gubernamentales para decenas de millones de estadounidenses de bajos ingresos, a menudo recortando las prestaciones a las que tienen derecho y dificultando el acceso a oportunidades.

La mayor parte de la inversión global de capital de riesgo, así como una gran cantidad de talento y grandes empresas, se concentran en el Área de la Bahía, por lo que California tiene más que ganar o perder en los debates regulatorios que cualquier otro lugar del mundo, afirmó Matt Regan, vicepresidente del Consejo del Área de la Bahía, un grupo de defensa de más de 300 empresas, entre ellas gigantes tecnológicos como Amazon, Apple, Google, Meta y Microsoft. El Consejo del Área de la Bahía no se ha pronunciado sobre los proyectos de ley propuestos en esta sesión, pero el año pasado se opuso a la propuesta de Wiener sobre pruebas de IA y al proyecto de ley antidiscriminación propuesto por Bauer-Kahan.

Regan afirmó que los reguladores de California han propuesto “protecciones y auditorías excesivamente diseñadas” que invalidan la funcionalidad de la tecnología y perjudican a las empresas. La Cámara de Progreso, un grupo empresarial, estima que el cumplimiento de las leyes antidiscriminación en California, Colorado y Virginia podría costarles a las empresas cientos de millones de dólares.

El panorama político se ha inclinado hacia el centro desde que los legisladores californianos propusieron proyectos de ley sobre IA hace un año, por lo que cree que el presidente de la Asamblea, Robert Rivas, instó a sus colegas a centrarse en los problemas económicos. Debido a estos cambios, cree que para que los proyectos de ley eviten un veto como el que desbarató la medida de Wiener, Regan afirmó que los legisladores deben redactar proyectos de ley que alcancen un equilibrio justo entre la protección del consumidor y la aceptación de los líderes empresariales. El próximo informe del grupo de trabajo convocado por el gobernador Newsom podría ofrecer consejos sobre cómo alcanzar un equilibrio justo entre hacer que la IA sea útil y castigar a los actores maliciosos por abusar de la tecnología.

Regulación de la IA con dientes

Un informe de Carnegie California de 2024 reveló que la mayoría de los californianos apoyan un acuerdo internacional sobre estándares de IA como forma de proteger los derechos humanos. Sin embargo, prácticamente todos los acuerdos internacionales firmados por empresas tecnológicas son voluntarios o carecen de fuerza legalmente vinculante, afirmó David Evan Harris en una presentación en un simposio sobre gobernanza de IA organizado por la Universidad de California en Berkeley a principios de este mes.

Por eso anima a los grupos de la sociedad civil que buscan generar cambios a hablar con los legisladores californianos. Harris es asesor de la Iniciativa de California para la Tecnología y la Democracia, un grupo que copatrocinó leyes para proteger a las personas de los deepfakes, las cuales están siendo impugnadas en los tribunales por la empresa X de Elon Musk, anteriormente Twitter. Anteriormente, formó parte de los equipos responsables de inteligencia artificial e integridad cívica de Meta.

El año pasado, testificó sobre IA 11 veces en la Legislatura de California, y aunque describe a California como uno de los únicos lugares del mundo donde la regulación de la IA es legalmente vinculante, vio repetirse un patrón frustrante: los legisladores presentan proyectos de ley sobre IA, se asignan a comités y luego “los proyectos de ley son revisados ​​y completamente reescritos por las empresas tecnológicas”.

Un claro ejemplo de esto, dijo, proviene de un proyecto de ley que pretendía multar a las empresas de redes sociales por perjudicar a los niños. Cuando se presentó, contó con apoyo bipartidista, pero las empresas tecnológicas se opusieron, y se debilitó y finalmente se archivó en una audiencia del comité.

“Las empresas tecnológicas dependen de que nadie vea lo que ocurre”, afirmó.

Lili Gangas es directora de la comunidad tecnológica del Kapor Center, una organización sin fines de lucro con sede en Oakland que se centra en temas relacionados con la equidad y la tecnología, y sigue de cerca la evolución de las políticas en California y el Congreso. Dado el entorno político actual y la eliminación de las protecciones a la IA por parte de la Casa Blanca, Gangas cree que podría haber más apoyo para la aprobación de proyectos de ley contra la discriminación en California y que el apoyo público a dichas protecciones podría estar en aumento. Sin embargo, le preocupa que pueda ser difícil aprobar la regulación de la IA debido al aumento de la presión ejercida por las empresas tecnológicas en Sacramento, que batió un récord el año pasado.

También cuestiona si los políticos con ambiciones de alcanzar cargos más altos priorizarán la implementación sobre la redacción de leyes destinadas a impulsar sus carreras. Si los legisladores logran superar estos desafíos y mantener bajos los costos, cree que California puede liderar el camino a pesar de los fracasos del Congreso y la administración Trump.

“Creo que [la orden ejecutiva revocada y la falta de aprobación de una ley en el Congreso] la hacen aún más importante ahora a nivel de California”, dijo. “Podemos mantenernos firmes, centrarnos en la protección de los derechos civiles y dar al fiscal general y a los ciudadanos la oportunidad de actuar”.

Los estados suelen presionar al gobierno federal para que proteja a las personas y sus derechos civiles frente a las tecnologías emergentes, afirmó Alex Ault, asesor político del Lawyers Committee for Civil Rights Under Law. Esta organización sin fines de lucro dedicada a la justicia racial respaldó en el Congreso la Ley de Eliminación del Sesgo en los Sistemas Algorítmicos en 2023 y la Ley de Derechos Civiles de la IA en 2024, dos proyectos de ley con principios similares al Plan para una Carta de Derechos de la IA y al proyecto de ley contra la discriminación propuesto en California.

Una encuesta de Carnegie California de 1500 personas, publicada el otoño pasado, señaló que la inteligencia artificial es uno de los seis principales problemas que enfrentan los californianos, junto con el cambio climático y las enfermedades infecciosas. La mitad de los encuestados se mostró preocupada o pesimista respecto a la IA, y el 35 % se mostró optimista o entusiasmado.

Sería conveniente que las legislaturas estatales, que analizan lo que sucede a nivel federal, se preguntaran: “Sobre qué tenemos control?”, preguntó Ault. “Cómo protegemos los derechos de las personas?”

A diferencia de Wiener, Bauer-Kahan no suavizó su visión para la regulación de la IA. Como presidenta del comité de privacidad y protección del consumidor, es una de las reguladoras de tecnología más influyentes en la Legislatura de California. Sin embargo, el año pasado, el proyecto de ley se enfrentó a la oposición de empresas tecnológicas como Google, Meta y OpenAI, así como de intereses comerciales de otros sectores, como administradores de hospitales, agentes inmobiliarios y propietarios de hoteles. Tras la enmienda para centrarse únicamente en el empleo, Bauer-Kahan decidió suspender el proyecto de ley.

“Si bien tuvimos los votos para su aprobación, lograr la política correcta es la prioridad número uno”, declaró el año pasado. “Este sigue siendo un asunto crítico y me niego a permitir que California se equivoque”.

Categories
FeaturedTechnology

RELATED BY