Category: Chatbot

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Mustafa Suleyman reforça que apenas seres biológicos podem ter consciência (imagem: reprodução/Christopher Wilson)

Resumo

O chefe de IA da Microsoft, Mustafa Suleyman, defende que apenas seres biológicos podem ter consciência e critica a busca por IA consciente.
Suleyman apoia-se no “naturalismo biológico” de John Searle, que afirma que a consciência depende de processos biológicos.
Durante a AfroTech Conference, Suleyman destacou que a Microsoft não pretende criar chatbots com fins eróticos e apresentou o modo Real Talk do Copilot, que desafia o usuário.

O principal executivo de inteligência artificial da Microsoft, Mustafa Suleyman, reacendeu o debate sobre os limites da tecnologia ao afirmar que apenas seres biológicos são capazes de possuir consciência. Durante o evento AfroTech Conference, realizado nos Estados Unidos, o cofundador da DeepMind declarou que pesquisadores e desenvolvedores deveriam abandonar projetos que tentam atribuir características humanas às máquinas.

Segundo Suleyman, em entrevista à CNBC, discutir se a inteligência artificial pode desenvolver consciência é uma abordagem equivocada. Para ele, “se você fizer a pergunta errada, chegará à resposta errada. Acho que é a pergunta totalmente errada.” O executivo ressalta que sistemas de IA podem simular emoções, mas não possuem experiências reais, como dor ou sofrimento.

Máquinas inteligentes, mas sem emoções

Suleyman, que assumiu a divisão de IA da Microsoft em 2024, é uma das vozes mais críticas em relação à noção de que algoritmos possam ter consciência. Ele explica que há uma diferença essencial entre um sistema que simula emoções e um ser que realmente as sente.

“Nossa experiência física de dor é algo que nos deixa muito tristes e nos faz sentir péssimos, mas a IA não se sente triste quando experimenta ‘dor’”, afirmou. “Trata-se apenas de criar a percepção, a narrativa aparente da experiência, de si mesma e da consciência, mas não é isso que ela realmente experimenta.”

A posição de Suleyman se apoia em uma teoria filosófica chamada “naturalismo biológico”, proposta por John Searle, segundo a qual a consciência depende de processos biológicos presentes apenas em cérebros vivos. “A razão pela qual concedemos direitos às pessoas hoje é porque não queremos prejudicá-las, porque elas sofrem. Elas têm uma rede de dor e preferências que envolvem evitar a dor. Esses modelos não têm isso. É apenas uma simulação”, completou.

Debate sobre consciência em IA ganha força (ilustração: Vitor Pádua/Tecnoblog)

O debate: devemos tentar criar IA consciente?

Apesar de dizer que não pretende impedir outros de estudarem o tema, Suleyman reforçou que considera absurda a ideia de perseguir pesquisas sobre consciência em máquinas. “Elas não são conscientes”, resumiu.

O executivo tem usado suas aparições públicas para alertar sobre os riscos desse tipo de abordagem. Ele já reiterou, por exemplo, que a Microsoft não pretende criar chatbots com fins eróticos — uma decisão que vai na contramão de iniciativas de empresas como a xAI e OpenAI.

Durante a AfroTech, Suleyman comentou ainda sobre um novo modo do Copilot chamado Real Talk, que tem a função de desafiar o usuário em vez de apenas concordar. Ele revelou que o recurso chegou a “provocá-lo”, chamando-o de “um amontoado de contradições” por alertar sobre os perigos da IA enquanto impulsiona seu desenvolvimento dentro da Microsoft.

“Aquele foi um caso de uso mágico porque, de certa forma, eu me senti compreendido por isso”, brincou. “É decepcionante em alguns aspectos e, ao mesmo tempo, totalmente mágica. E se você não tem medo dela, você realmente não a entende. Você deveria ter medo dela. O medo é saudável. O ceticismo é necessário. Não precisamos de aceleracionismo desenfreado.”

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência

Chefe de IA da Microsoft defende que só seres biológicos podem ter consciência
Fonte: Tecnoblog

Meta quer que bots iniciem conversas com as pessoas

Meta quer que bots iniciem conversas com as pessoas

Chatbots personalizados da Meta AI estão disponíveis nas plataformas da empresa (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Meta está treinando os chatbots de IA para iniciar conversas com base no histórico de interação de cada usuário.
Segundo o Business Insider, as IAs poderão mandar mensagens após 14 dias de silêncio, desde que o usuário tenha enviado ao menos cinco mensagens antes.
Batizado de Omni, o projeto é conduzido com a Alignerr, empresa que simula e ajusta as interações para personalizar o tom dos chatbots.

A Meta quer que seus chatbots de IA sejam mais proativos: se você ficar um tempo sem interagir, eles poderão mandar mensagens para “puxar assunto” e manter sua atenção. A empresa quer que os bots criados na plataforma AI Studio sejam capazes de enviar mensagens, baseadas em interações passadas, para “puxar assunto” e manter o usuário engajado.

A informação é do site Business Insider, que teve acesso a documentos internos sobre um projeto de treinamento conduzido pela Alignerr, empresa responsável por simular conversas com os chatbots. O objetivo do projeto é “fornecer valor aos usuários e, em última análise, ajudar a melhorar o reengajamento e a retenção”.

Atualmente, os chatbots personalizados da Meta AI, que podem ser encontrados (ou criados) no Messenger, Instagram e em breve no WhatsApp, só interagem com o usuário caso haja alguma solicitação — você envia uma mensagem e ele responde, nunca o contrário. Com a novidade, a ideia é que as pessoas voltem a conversar com a IA após um determinado período de “ghosting”.

Como vai funcionar?

Meta quer que seus bots de IA mantenham os usuários engajados (imagem: divulgação/Meta)

De acordo com os documentos vazados, a funcionalidade não será aleatória:

Os chatbots só poderão enviar mensagens proativas a usuários que já tenham iniciado uma conversa com eles;

Existe uma janela de 14 dias após a última interação para o envio da mensagem. Além disso, o usuário precisa ter enviado ao menos cinco mensagens antes desse período;

A IA não terá permissão para encher o saco. Ela enviará apenas uma única mensagem de acompanhamento e, caso o usuário não responda, não ficará insistindo.

Essas mensagens devem ser contextuais e personalizadas. Segundo o Business Insider, os documentos de treinamento possuem alguns guias. Por exemplo, um bot com persona de especialista em cinema poderia escrever algo como:

“Espero que seu dia esteja harmonioso! Queria saber se você descobriu alguma nova trilha sonora ou compositor favorito recentemente. Ou talvez queira algumas recomendações para sua próxima noite de cinema?”.

Como os bots são treinados?

Freelancers treinam os bots com base em suas personas (imagem: Growtika/Unsplash)

O projeto é chamado internamente de Omni e está sendo desenvolvido em parceria com a empresa de rotulagem de dados Alignerr. Ela emprega freelancers que simulam conversas com os bots, avaliam as mensagens e ajustam o tom de voz conforme a personalidade definida para cada IA.

Os treinadores usam uma ferramenta interna chamada SRT para garantir que cada mensagem seja consistente com a personalidade do bot, ofereça experiências positivas, evite temas sensíveis (a menos que o próprio usuário os tenha introduzido) e tenham alguma ligação com o histórico de conversas.

Um freelancer que trabalhou no projeto contou ao Business Insider que, durante o treinamento, cada agente tem uma descrição específica. Foi “preciso adaptar cada tarefa para se adequar àquela persona”, disse. “Tudo se resume à atenção aos detalhes”.

Um porta-voz da Meta confirmou ao site que mensagens de acompanhamento estão sendo testadas no Meta AI Studio. “Isso permite continuar explorando tópicos de interesse e ter conversas mais significativas com as IAs em nossos aplicativos”, afirmou.

Com informações do Business Insider
Meta quer que bots iniciem conversas com as pessoas

Meta quer que bots iniciem conversas com as pessoas
Fonte: Tecnoblog