Los legisladores del estado de Washington están dando otro intento de regular la inteligencia artificial, impulsando en esta sesión una serie de proyectos de ley que apuntan a frenar la discriminación, limitar el uso de la IA en las escuelas e imponer nuevas obligaciones a las empresas que desarrollan productos de IA emocionalmente atractivos.
El estado ha aprobado leyes estrictas relacionadas con la IA en el pasado, incluidas restricciones al reconocimiento facial y la propagación de deepfakes, pero los esfuerzos más amplios a menudo se han estancado, incluidas las propuestas del año pasado centradas en la transparencia y la divulgación del desarrollo de la IA.
Los proyectos de ley de este año se centran en los niños, la salud mental y decisiones importantes como la contratación, la vivienda y los préstamos. Los proyectos de ley podrían afectar a los proveedores de software de recursos humanos, las empresas de tecnología educativa, las nuevas empresas de salud mental y las plataformas de inteligencia artificial generativa que operan en Washington.
Las propuestas surgen mientras el Congreso continúa debatiendo la supervisión de la IA sin tomar medidas concretas, dejando que los estados experimenten con sus propias barreras de seguridad. Un informe provisional reciente publicado por el Grupo de Trabajo sobre IA del estado de Washington dijo que el “enfoque de no intervención” del gobierno federal respecto de la IA “ha creado una brecha regulatoria crítica que deja a los habitantes de Washington vulnerables”.
A continuación presentamos un vistazo a cinco proyectos de ley relacionados con la IA que se presentaron previamente antes del inicio oficial de la sesión legislativa, que comienza el lunes.
HB 2157
Este proyecto de ley integral regularía los llamados sistemas de inteligencia artificial de alto riesgo que toman o influyen significativamente en decisiones sobre empleo, vivienda, crédito, atención médica, educación, seguros y libertad condicional.
Las empresas que desarrollen o implementen estos sistemas en Washington deberían evaluar y mitigar los riesgos de discriminación, revelar cuándo las personas interactúan con la IA y explicar cómo la IA ha contribuido a decisiones adversas. Los consumidores también podrían recibir explicaciones sobre las decisiones influenciadas por la IA.
La propuesta no se aplicaría a herramientas de bajo riesgo, como filtros de spam o simples chatbots de servicio al cliente, ni a la IA utilizada únicamente con fines de investigación. Aún así, podría afectar a una amplia gama de empresas de tecnología, incluidos proveedores de software de recursos humanos, empresas de tecnología financiera, plataformas de seguros y grandes empleadores que utilizan herramientas de detección automatizadas. El proyecto de ley entraría en vigor el 1 de enero de 2027.
SB 5984
Este proyecto de ley, propuesto por el gobernador Bob Ferguson, se centra en los chatbots complementarios de IA y requeriría revelaciones repetidas de que un chatbot de IA no es humano, prohibiría el contenido sexualmente explícito para menores y exigiría protocolos de prevención del suicidio. Las violaciones quedarían bajo la Ley de Protección al Consumidor de Washington.
Los hallazgos del proyecto de ley advierten que los chatbots complementarios de IA pueden desdibujar la línea entre la interacción humana y artificial y contribuir a la dependencia emocional o reforzar ideas dañinas, incluida la autolesión, particularmente entre menores.
Estas reglas podrían afectar directamente a las nuevas empresas de salud mental y bienestar que experimentan con terapias impulsadas por IA o herramientas de apoyo emocional, incluidas las empresas que exploran servicios de salud mental basados en IA, como la startup NewDays de Seattle.
Babak Parviz, director ejecutivo de NewDays y ex director de Amazon, dijo que cree que el proyecto de ley tiene buenas intenciones, pero agregó que sería difícil de aplicar porque “la construcción de una relación a largo plazo está muy vagamente definida aquí”.
Parviz dijo que es importante examinar los sistemas que interactúan con menores para garantizar que no causen daño. “Una capa humana de supervisión es importante para los sistemas críticos de IA que interactúan con los humanos”, dijo. “Por ejemplo, en uso clínico, nuestro sistema de IA está bajo la supervisión de un médico humano experimentado”.
SB 5870
Un proyecto de ley relacionado va incluso más allá y crea una posible responsabilidad civil si se alega que un sistema de inteligencia artificial ha contribuido al suicidio de una persona.
Según este proyecto de ley, las empresas podrían enfrentar demandas si su sistema de IA fomenta la autolesión, da instrucciones o no alerta a los usuarios sobre los recursos de crisis, y se les prohibiría argumentar que el daño fue causado únicamente por el comportamiento autónomo de la IA.
Si se aprueba, la medida vincularía explícitamente el diseño y el funcionamiento de los sistemas de inteligencia artificial con las demandas por muerte por negligencia. El proyecto de ley se produce en medio de un creciente escrutinio legal de los chatbots de estilo complementario, incluidas demandas relacionadas con Character.AI y OpenAI.
SB 5956
Apunta al uso de IA en escuelas K-12, prohíbe las “evaluaciones de riesgo” predictivas que señalan a los estudiantes como posibles alborotadores y prohíbe la vigilancia biométrica en tiempo real, como el reconocimiento facial.
También se prohibiría a las escuelas utilizar la IA como única base para suspensiones, expulsiones o remisiones a las autoridades, lo que subraya que el juicio humano debe seguir siendo el centro de las decisiones disciplinarias.
Educadores y activistas de derechos civiles han hecho sonar la alarma sobre cómo las herramientas predictivas pueden aumentar las disparidades disciplinarias.
SB 5886
Esta propuesta actualiza la ley de Washington sobre el derecho a la publicidad para cubrir explícitamente las imágenes digitales falsas generadas por IA, incluidos clones de voz convincentes e imágenes sintéticas.
El uso de la imagen de alguien generada por IA con fines comerciales sin consentimiento podría exponer a las empresas a responsabilidad y resaltar que las protecciones de identidad existentes se aplican en la era de la IA, y no solo para celebridades y figuras públicas.