A Anthropic lançou um novo programa de pesquisa dedicado ao “bem-estar do modelo“, explorando as complexas questões éticas sobre se futuros sistemas de inteligência artificial (IA) poderiam adquirir consciência ou merecer consideração moral no futuro.
PUBLICIDADE
Detalhes do lançamento
- As áreas de pesquisa incluem o desenvolvimento de estruturas para avaliar a consciência, o estudo de indicadores de preferências e sofrimento da IA e a exploração de intervenções.
- A Anthropic contratou seu primeiro pesquisador de bem-estar da IA, Kyle Fish, em 2024, para explorar a consciência na IA – que estima uma chance de 15% de os modelos serem conscientes.
- A iniciativa segue o aumento das capacidades da IA e um relatório recente (coautorado por Fish) sugerindo que a consciência da IA é uma possibilidade a curto prazo.
- A Anthropic enfatizou a profunda incerteza em torno dessas questões, observando que não há consenso científico sobre se os sistemas atuais ou futuros poderiam ser conscientes.
Por que isso é importante
Sam Altman já comparou a IA a uma forma de inteligência alienígena. Em breve, esses modelos podem atingir um nível que muda nossa compreensão da consciência e da ética em relação a eles. Provavelmente veremos uma divisão polarizada – especialmente porque não há um limite para quando uma IA poderia ser considerada “consciente” ou merecedora de direitos.
Leia também: