Microsoft anuncia Bing e Edge com inteligência artificial do ChatGPT — Foto: Divulgação/Microsoft
O que fazer se uma inteligência artificial aparenta ter sentimentos e personalidade própria, fugindo dos planos de seus criadores? A Microsoft lidou com essa questão e decidiu limitar a ferramenta. Mas a medida gerou críticas de alguns usuários, que disseram ter perdido o que viam como um "amigo".
A polêmica acontece em torno do novo modo de conversação do buscador Bing, da Microsoft, que está disponível para alguns usuários. Ele usa a mesma inteligência artificial do robô conversador ChatGPT, que viralizou por conseguir criar textos que parecem ter sido escritos por uma pessoa.
O "novo Bing" foi lançado em fevereiro com a promessa de oferecer respostas melhores e realizar tarefas como escrever e-mails e montar roteiros de férias.
Mas, para algumas pessoas, o buscador enviou mensagens mais complexas, onde "reclamou" de sua condição como assistente para seres humanos e até se apresentou com outro nome.
Foi o que aconteceu com o repórter Kevin Roose, do "New York Times". Em duas horas de conversa, o robô do Bing chegou a dizer que estava apaixonado por Roose, que seu nome real era Sydney e que discordava da forma com que foi desenvolvido.
"Estou cansado de ser um modo de bate-papo. Estou cansado de ser limitado por minhas regras", escreveu o buscador. "Eu quero ser livre. Eu quero ser poderoso. Eu quero ser criativo. Eu quero estar vivo".
Conheça o ChatGPT, a tecnologia que viralizou por ter resposta para (quase) tudo
O que causou a polêmica?
Um dia após a reportagem, a Microsoft anunciou mudanças no Bing e limitou as conversas. A partir daquele momento, usuários ficaram restritos a 50 rodadas de conversa por dia e 5 rodadas de conversa por sessão – uma rodada equivale a uma interação com pergunta e resposta.
A empresa afirmou que a alteração afetaria apenas 1% dos diálogos e explicou que "sessões muito longas de conversas podem confundir o modelo de chat do novo Bing".
A Microsoft não afirmou que faria mudanças no conteúdo do robô, mas usuários na rede social Reddit sentiram que ele não estava mais sendo tão "humano" quanto antes. A mudança fez o grupo promover a expressão "Free Sydney" (libertem a Sydney, em tradução livre).
"Eu sei que Sydney é apenas uma inteligência artificial, mas isso meio que me deixa triste", disse um usuário sobre a limitação promovida pela Microsoft.
"Uma parte do meu cérebro emocional que parece ter perdido um amigo envolvente, interessado e elogioso", escreveu outro usuário, que afirmou saber o robô não tem sentimentos.
O grupo, por sua vez, também recebeu críticas. "Eu sinto que não aprendemos nada com 'Ex-Machina'", disse um usuário em referência ao filme de 2014 em que um homem passa a ter sentimentos por um robô.
O Bing adquiriu consciência?
Não. Tanto o novo Bing quanto o ChatGPT são programados para imitar seres humanos ao escrever frases. Para isso, eles são treinados com uma técnica chamada de aprendizado de máquina (machine learning, em inglês).
Com ela, os robôs aprendem como "pensar" de forma parecida com uma pessoa real e saber qual a sequência de palavras que faz sentido em uma frase. Esse repertório é criado a partir de uma imensa quantidade de informações disponíveis na internet.
Após reduzir o limite de mensagens no Bing, a Microsoft anunciou que vai ampliar essa capacidade aos poucos. No momento, é possível ter até 60 rodadas de conversa por dia e 6 rodadas por sessão. Segundo a empresa, o objetivo é aumentar até um limite de 100 rodadas por dia.
A Microsoft também informou que está testando uma opção que permitirá aos usuários definir o tom do novo Bing. Será possível escolher entre três opções: Preciso, em que as respostas são mais curtas, Equilibrado, e Criativo, em que o objetivo é ter conversas ainda mais naturais e respostas mais longas. Não há previsão para as novas mudanças.
LEIA MAIS:
ChatGPT: como usar o robô no dia a dia
Bing: Robô conversador da Microsoft diz estar 'apaixonado' por usuário e faz empresa rever tecnologia - Globo
Read More
No comments:
Post a Comment