La Casa Blanca presentó un conjunto de normas y principios destinados a garantizar que Estados Unidos "marque el camino" en la regulación de la inteligencia artificial (IA).
El presidente estadounidense, Joe Biden, emitirá un decreto que exige a los desarrolladores de IA, entre otras cosas, presentar al gobierno federal los resultados de sus pruebas de seguridad cuando sus proyectos supongan "un grave riesgo para la seguridad nacional, la seguridad económica nacional o la salud pública".
Biden y su equipo se basan en una ley que data de la Guerra Fría, la Defense Production Act (1950), que otorga al gobierno cierto poder de coacción sobre las empresas cuando está en juego la seguridad del país. La Casa Blanca pretende prestar especial atención a los riesgos que puede plantear el desarrollo de la IA en los campos de la biotecnología e infraestructuras.
A la iniciativa le espera un duro escollo en el Congreso, para entrar en práctica. Cualquier normativa verdaderamente vinculante y ambiciosa sobre inteligencia artificial debería pasar por el Congreso. Sin embargo, el Legislativo tiene divididos a demócratas y republicanos, lo que hace muy improbable la adopción de una ley a gran escala.
La IA en sí misma es objeto de una gran competencia internacional. Por ende, las iniciativas para regularla también son parte de esa competencia. Por ejemplo, la Unión Europea, que produce abundantes normas en el ámbito digital, busca establecer antes de fin de año un marco regulatorio de esa tecnología. Tiene el mismo objetivo que Estados Unidos: sentar las bases de la regulación de la IA a nivel mundial.