O Future AIS poderia ser “consciente” e experimentar o mundo de maneira semelhante à maneira como os humanos fazem? Não há evidências fortes de que eles o farão, mas antropia não está descartando a possibilidade.
Na quinta -feira, o laboratório da IA anunciou que iniciou um programa de pesquisa para investigar – e se preparar para navegar – o que está chamando de “bem -estar modelo”. Como parte do esforço, o Antrópico diz que explorará coisas como determinar se o “bem-estar” de um modelo de IA merece consideração moral, a importância potencial do modelo “sinais de angústia” e possíveis intervenções de “baixo custo”.
Há grande desacordo na comunidade de IA sobre o que os modelos de características humanas “exibem”, se houver, e como devemos “tratá -los”.
Muitos acadêmicos acreditam que hoje a IA não pode se aproximar da consciência ou da experiência humana e não será necessariamente capaz de no futuro. Ai, como sabemos, é um mecanismo de previsão estatístico. Realmente não “pensa” ou “se sente”, pois esses conceitos são tradicionalmente entendidos. Treinado em inúmeros exemplos de texto, imagens e assim por diante, a IA aprende padrões e, às vezes, maneiras úteis de extrapolar para resolver tarefas.
Como Mike Cook, pesquisador do King’s College London, especializado em IA, disse recentemente ao TechCrunch em uma entrevista, um modelo não pode “se opor” a uma mudança em seus “valores” porque os modelos não ter valores. Sugerir o contrário, é nós projetarmos no sistema.
“Qualquer pessoa que antropomorfize os sistemas de IA nesse grau esteja jogando por atenção ou entendendo seriamente seu relacionamento com a IA”, disse Cook. “Um sistema de IA é otimizando para seus objetivos ou está ‘adquirindo seus próprios valores’? É uma questão de como você o descreve e como a linguagem que você deseja usar sobre ele é”.
Outro pesquisador, Stephen Casper, um estudante de doutorado do MIT, disse ao TechCrunch que ele acha que a IA equivale a um “imitador” que “(faz) todos os tipos de confabulação” e diz “todo tipo de coisa frívola”.
No entanto, outros cientistas insistem que ai faz têm valores e outros componentes do tipo humano da tomada de decisão moral. Um estudo fora do centro de segurança da IA, uma organização de pesquisa de IA, implica que a IA possui sistemas de valor que o levam a priorizar seu próprio bem-estar sobre os seres humanos em certos cenários.
A Antrópica está estabelecendo as bases para sua iniciativa de bem -estar modelo há algum tempo. No ano passado, a empresa contratou seu primeiro pesquisador dedicado de “bem -estar de IA”, Kyle Fish, para desenvolver diretrizes sobre como as empresas antrópicas e outras devem abordar a questão. (Fish, que lidera o novo programa de pesquisa de bem -estar modelo, disse ao New York Times que acha que há 15% de chance de Claude ou outra IA está consciente hoje.)
Em um post no blog na quinta -feira, o Antrópico reconheceu que não há consenso científico sobre se os sistemas atuais ou futuros de IA podem estar conscientes ou ter experiências que justificam consideração ética.
“À luz disso, estamos abordando o tópico com humildade e com o menor número possível de suposições”, disse a empresa. “Reconhecemos que precisamos revisar regularmente nossas idéias à medida que o campo se desenvolve.