ARCHIVO – La vicepresidenta Kamala Harris habla sobre salud pública en Raleigh, Carolina del Norte, 26 de marzo de 2024. Los organismos federales deben demostrar que sus herramientas de inteligencia artificial no hacen daño a la gente, o bien dejar de usarlas, según nuevas normas reveladas por la Casa Blanca el jueves 28 de marzo de 2024. (AP Foto/Matt Kelley, File)
Los organismos federales deben demostrar que sus herramientas de inteligencia artificial no hacen daño a la gente, o bien dejar de usarlas, según nuevas normas reveladas por la Casa Blanca el jueves.
“Cuando los organismos del gobierno utilicen herramientas de IA, les requeriremos que verifiquen que esas herramientas no ponen en peligro los derechos y la seguridad del pueblo estadounidense”, dijo la vicepresidenta Kamala Harris a la prensa antes del anuncio.
Para diciembre, cada entidad debe tener un conjunto de salvaguardas concretas que guíen todo, desde las pantallas de reconocimiento facial en los aeropuertos hasta las herramientas de IA que ayudan a controlar la red eléctrica o determinan las hipotecas y seguros de viviendas.
La nueva directiva emitida el jueves a los jefes de los organismos por la Oficina de Administración y Presupuesto de la Casa Blanca es parte del amplio decreto sobre IA firmado por el presidente Joe Biden en octubre.
Si bien el decreto amplio trata de salvaguardar los sistemas comerciales de IA fabricado por las empresas tecnológicas líderes, tales como los que activan los chatbots de IA generativa, la directiva del jueves apunta a las herramientas que los organismos emplean desde hace años para tomar decisiones sobre inmigración, vivienda, bienestar infantil y una gama de servicios.
Como ejemplo, Harris dijo que “si la Administración de Veteranos quiere usar IA en sus hospitales para ayudar a los médicos a diagnosticar a los pacientes, deberán demostrar ante todo que la IA no produce diagnósticos racialmente prejuiciosos”.
Los organismos que no pueden aplicar las salvaguardas “deben dejar de usar el sistema de IA a menos que la conducción pueda explicar por qué hacerlo incrementaría los riesgos o derechos en general o crearía un obstáculo insalvable para sus operaciones cruciales”, según un anuncio de la Casa Blanca.
Hay otros dos “requisitos vinculantes”, dijo Harris. Uno es que las entidades federales deben contratar un jefe de IA con la “experiencia, pericia y autoridad” para supervisar todas las tecnologías de IA empleadas por el organismo, dijo Harris. La otra es que cada año los organismos deben publicar un inventario de sus sistemas de IA que incluya una evaluación de sus posibles riesgos.
Hay algunas excepciones para las agencias de inteligencia y el Departamento de Defensa, que mantiene un debate particular sobre el uso de armas autónomas.
News Related-
Guía práctica para animarte a combinar estampados y conseguir los mejores looks
-
La mujer de Ion Aramendi pasa por una delicada operación: "Ha sido una decisión complicada"
-
Baja el dólar, pero no paran de subir los precios
-
Confirmado: Belgrano será el rival de River en cuartos de final de la Copa de la Liga
-
Boca afuera de la Libertadores y River festeja: se clasificó al Super Mundial de Clubes 2025
-
La Selección Argentina se mide ante Alemania por un lugar en la final del Mundial Sub 17: hora, TV y posibles formaciones
-
Jennie de BLACKPINK lució un vestido pegado al cuerpo, con sus hombros al aire, y la red se prendió fuego
-
River clasificó al Mundial de Clubes 2025
-
“Llaryora se va con un impuestazo como con el que llegó hace cuatro años”
-
Milei, en Estados Unidos: almorzó con Bill Clinton y tendrá contactos con el Gobierno de Biden y el FMI
-
Javier Milei almorzó con Bill Clinton y Chris Dodd: les expuso su programa de gobierno
-
Luis ventura le ofreció trabajo a Morena y le dejó un contundente mensaje a Jorge Rial
-
Robots humanoides y puestos de trabajo: expertos adelantan los cambios que ocurrirán para 2035
-
San Lorenzo ganó su partido, clasificó a la Copa Libertadores 2024 y lo dejó sin chances a Boca