A OpenAI revisou a sua política de utilização, modificando nomeadamente a sua posição sobre o uso da sua tecnologia de inteligência artificial (IA) para fins militares e de guerra.
Originalmente, a política da OpenAI proibia o uso de sua tecnologia para “desenvolvimento de armas” e “militar e de guerra”. Contudo, a política revista permite agora certas aplicações de segurança nacional, ao mesmo tempo que continua a proibir o desenvolvimento de armas.
A OpenAI esclareceu que sua atualização visa permitir casos de uso de segurança nacional que se alinhem com sua missão. Isto inclui colaborações com organizações como a DARPA para desenvolver ferramentas de segurança cibernética para proteger infraestruturas críticas.
À medida que aumentam as preocupações sobre o papel da inteligência artificial em contextos militares, esta é comparada às profundas mudanças trazidas por invenções como as armas nucleares no passado.
A atualização da política feita pela OpenAI marca um momento significativo na indústria de IA, destacando o papel avançado da tecnologia em áreas como segurança e defesa nacional.
Embora esta medida abra oportunidades para a IA contribuir positivamente, como na cibersegurança, também traz à tona preocupações éticas e a necessidade de uma consideração cuidadosa de como a IA é aplicada em setores sensíveis.
Leia também:
Este post foi modificado pela última vez em 14 de janeiro de 2024 23:41
O Outlier é uma plataforma feita para conectar especialistas nas diversas áreas de inteligência artificial…
Enfrentando uma crise de caixa, o The Information relatou que a startup britânica, Stability AI, conversou com…
O chatbot Grok, da xAI de Elon Musk, agora está disponível na Europa - após…
Funcionários dos Estados Unidos levantaram preocupações sobre o "uso indevido" da inteligência artificial (IA) pela…
As inundações históricas que atingiram o estado mais ao Sul do Brasil, o Rio Grande…
A Deloitte acaba de divulgar sua Pesquisa sobre a Geração Z e Millennials de 2024,…