De acordo com uma fonte anônima história no New York Timeso presidente está a considerar um novo esquema de supervisão para a indústria da IA. Aparentemente, isso vem de pessoas “informadas sobre as conversas” realizadas em reuniões na semana passada entre executivos da Anthropic, Google e OpenAI e membros da administração Trump.
Trump está supostamente a ponderar uma ordem executiva que criaria um “grupo de trabalho de IA” composto por representantes do governo e da indústria tecnológica, e este grupo discutiria possíveis planos de supervisão, incluindo o que o Occasions chama de “um processo formal de revisão governamental para novos modelos de IA”.
As fontes do Occasions alegam aparentemente que o próprio grupo de trabalho seria a entidade que determinaria com que agências governamentais estaria envolvido – uma lista que poderia incluir a NSA, o Gabinete do Diretor Nacional Cibernético da Casa Branca e o gabinete do diretor da inteligência nacional (Tulsi Gabbard, atualmente).
Deve-se notar também que já existe uma entidade sob a égide do Instituto Nacional de Padrões e Tecnologia chamada Centro de Padrões e Inovação de IA (CAISI), criada sob o presidente Biden especificamente para a verificação de modelos de IA. Mas parece que a missão da CAISI foi alterada pouco depois da posse de Trump.
“Por muito tempo, a censura e as regulamentações foram usadas sob o pretexto da segurança nacional. Os inovadores não serão mais limitados por esses padrões. A CAISI avaliará e aprimorará a inovação dos EUA nesses sistemas comerciais de IA em rápido desenvolvimento, garantindo ao mesmo tempo que permaneçam seguros de acordo com nossos padrões de segurança nacional”, disse o secretário de Comércio, Howard Lutnick. disse na época.
Além disso, um documento de política chamado “Um Quadro Político Nacional para a Inteligência Synthetic”, divulgado pela Casa Branca de Trump, divulgado há menos de dois meses, apela a regulamentações muito brandas – uma abordagem que entra significativamente em conflito com o que Trump parece estar agora a considerar. Principalmente, evita regulamentações e contém poucas coisas que sejam mais onerosas para a Huge Tech do que requisitos de verificação de idade.
Em espírito, esse documento foi o sucessor do documento do vice-presidente JD Vance discurso empolgante no ano passado na Cúpula de Ação de IA na França, cuja mensagem period basicamente, Regras de IA; A América vence na IA; e não há nada que qualquer uma das vossas economias intermédias e dos vossos estados babás europeus possam fazer a respeito.
Os EUA e o Reino Unido recusou-se a assinar uma declaração naquela reunião. Talvez apropriadamente, as fontes do Time dizem que o plano de verificação em consideração atraiu comparações com “um que está sendo desenvolvido na Grã-Bretanha”, no qual várias entidades governamentais tentarão examinar a segurança dos modelos de IA.
O plano a que isto parece referir-se é aquele que pareceu formar-se pouco depois de os bancos britânicos e as agências governamentais terem recebido uma antevisão do ainda não lançado modelo Claude Mythos Preview da Anthropic – considerado pela Anthropic demasiado perigoso para ser divulgado, especialmente em torno da segurança cibernética. Os reguladores do Centro Nacional de Segurança Cibernética do Reino Unido, a sua Autoridade de Conduta Financeira, o seu Tesouro e funcionários do Banco de Inglaterra estavam a lutar para decidir um curso de ação desde o mês passado.