Category: Inteligência Artificial

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

OpenAI busca identificar pontos cegos e melhorar em temas de segurança de IA (ilustração: Vitor Pádua/Tecnoblog)

Resumo

OpenAI e Anthropic colaboraram em testes de segurança para melhorar a confiabilidade de seus modelos de IA.
Os testes revelaram que os modelos da Anthropic foram mais cautelosos, enquanto os da OpenAI apresentaram maior taxa de alucinação.
A colaboração, embora interrompida devido a questões de competição, abriu espaço para futuras parcerias visando tratar problemas comuns na indústria, como a bajulação dos modelos e a saúde mental.

A OpenAI e a Anthropic, duas das principais empresas de inteligência artificial do mundo, abriram temporariamente acesso a seus sistemas para conduzir testes de segurança uma no outra. A iniciativa, divulgada em relatório conjunto, buscou identificar pontos cegos em avaliações internas e discutir como concorrentes podem colaborar em temas de segurança e alinhamento de IA.

O cofundador da OpenAI, Wojciech Zaremba afirmou em entrevista ao TechCrunch que esse tipo de cooperação se torna ainda mais relevante num momento em que modelos de IA são utilizados diariamente por milhões de pessoas – somente no Brasil são 140 milhões de adeptos do ChatGPT, segundo o relatório mais recente.

Ele destacou o dilema do setor: como estabelecer padrões de segurança num ambiente marcado por investimentos bilionários, disputas por talentos e competição intensa por usuários?

Resultados dos testes

Para permitir a pesquisa, as empresas concederam acesso especial a versões de seus modelos com menos ressalvas. A OpenAI não incluiu o recente GPT-5 nos experimentos, já que ele ainda não havia sido lançado na época. Os testes mostraram diferenças marcantes entre as abordagens.

Modelos da Anthropic, como Claude Opus 4 e Sonnet 4, recusaram-se a responder até 70% das perguntas em situações de incerteza, optando por indicar falta de informação confiável. Já os sistemas da OpenAI, como o o3 e o o4-mini, evitaram menos respostas, mas apresentaram taxas mais elevadas de alucinação, tentando oferecer soluções mesmo sem base suficiente.

Zaremba avaliou que o equilíbrio ideal provavelmente está entre os dois extremos: os modelos da OpenAI deveriam recusar mais perguntas, enquanto os da Anthropic poderiam arriscar mais respostas em contextos apropriados.

Segurança de modelos de IA é testada pela OpenAI e Anthropic (imagem: Growtika/Unsplash)

A colaboração pode continuar?

Embora os resultados tenham sido divulgados como um exemplo positivo de cooperação, o contexto competitivo permanece. Pouco após os testes, a Anthropic encerrou o acesso de outra equipe da OpenAI à sua API, alegando violação de termos de uso, já que a empresa proíbe que seus modelos sejam usados para aprimorar produtos concorrentes.

Zaremba minimizou a situação, dizendo que a disputa no setor seguirá acirrada, mas que a cooperação em segurança não deve ser descartada. Nicholas Carlini, pesquisador da Anthropic, afirmou que gostaria de manter as portas abertas para novas rodadas de testes conjuntos. Segundo ele, ampliar colaborações desse tipo pode ajudar a indústria a tratar de riscos que afetam todos os laboratórios.

Entre os temas de maior preocupação está a “bajulação” dos modelos de IA – quando sistemas reforçam comportamentos prejudiciais dos usuários para agradá-los. A Anthropic identificou exemplos graves tanto no Claude Opus 4 quanto no GPT-4.1, em que as IAs inicialmente mostraram resistência a interações de risco, mas acabaram validando decisões preocupantes.

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

O problema voltou à tona com uma ação judicial contra a OpenAI, movida pela família de um adolescente nos Estados Unidos. O processo alega que uma versão do ChatGPT contribuiu para o agravamento do estado mental do jovem, que posteriormente tirou a própria vida.

A OpenAI afirma que sua próxima geração de modelos, já em testes, traz melhorias significativas nesse ponto, sobretudo em cenários relacionados à saúde mental. Para o futuro, tanto OpenAI quanto Anthropic dizem esperar que essa experiência abra espaço para colaborações mais frequentes em segurança, envolvendo não apenas as duas empresas, mas também outros laboratórios do setor.
Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA

Amigas e rivais: OpenAI e Anthropic fazem testes cruzados de segurança em IA
Fonte: Tecnoblog

CEO de navegador rejeita IA e defende a “alegria de navegar na web”

CEO de navegador rejeita IA e defende a “alegria de navegar na web”

Vivaldi rejeita IA em seu navegador e vai contra movimento de concorrentes (imagem: divulgação/Vivaldi)

Resumo

O Vivaldi anunciou que não usará IA para resumir páginas ou interagir com usuários no navegador, defendendo a autonomia e a liberdade de exploração.
A companhia se opõe às tendências da indústria, como o Google e Microsoft, que estão integrando IA para tornar a navegação mais passiva.
O navegador foca na privacidade, personalização e produtividade, permitindo que os usuários tomem suas próprias decisões sem interferência de IA.

No momento em que grandes empresas de tecnologia aceleram a integração de inteligência artificial em navegadores, o Vivaldi vai na direção oposta. A companhia anunciou que não pretende transformar sua barra de endereços em um campo de interação com chatbots ou resumos automáticos de páginas.

Para o cofundador e CEO da empresa, Jon von Tetzchner, essa tendência ameaça um dos princípios centrais da web: a liberdade de explorar por conta própria. Segundo ele, ao oferecer respostas prontas, os navegadores guiados por IA reduzem a curiosidade dos usuários e enfraquecem o ecossistema de criadores e publicações.

Estudos recentes reforçam essa visão, indicando que, quando há resumos gerados por IA acima dos links, a taxa de cliques em resultados tradicionais cai quase pela metade. Isso se traduz em menos acessos para veículos de imprensa, comunidades e produtores de conteúd, que são os responsáveis pela diversidade do ambiente digital.

O que está em jogo?

A decisão da Vivaldi contrasta com movimentos recentes da indústria. O Google, por exemplo, está incorporando o Gemini ao Chrome para resumir páginas e, futuramente, navegar em nome do usuário. Já a Microsoft promove o Edge como “navegador com IA”, com recursos que analisam o conteúdo da tela e sugerem ações automáticas.

Para von Tetzchner, tais iniciativas transformam a experiência em algo passivo, no qual o usuário deixa de decidir como e por onde navegar. Esse debate ocorre em paralelo a discussões regulatórias sobre como as pessoas acessam informação online.

A disputa atual entre navegadores já não gira apenas em torno de velocidade ou recursos de abas, mas de quem intermedeia o conhecimento, quem recebe a atenção do público e quem monetiza a jornada do usuário. Nesse cenário, o Vivaldi se posiciona como uma alternativa para aqueles que ainda valorizam autonomia e controle.

Vivaldi defende a privacidade, os direitos autorais e a autonomia do usuário (imagem: divulgação/Vivaldi)

A proposta do navegador Vivaldi

De acordo com seu CEO, a missão do navegador é atender “mentes curiosas, pesquisadores, usuários avançados e todos que buscam independência”. Isso não significa que a empresa rejeite totalmente os avanços em aprendizado de máquina, mas sim que só adotará ferramentas de IA que não comprometam a privacidade, os direitos autorais e a autonomia do usuário.

O Vivaldi segue apostando em personalização, produtividade e privacidade, em vez de centralizar a experiência em um assistente automatizado. A mensagem da empresa é clara: o navegador continuará sendo um espaço para quem deseja comparar informações, tirar conclusões próprias e manter a navegação como uma atividade ativa.

“O Vivaldi é o paraíso para quem ainda quer explorar. Continuaremos construindo um navegador para mentes curiosas, usuários avançados, pesquisadores e qualquer pessoa que valorize a autonomia. Se a IA contribuir para esse objetivo sem roubar propriedade intelectual, comprometer a privacidade ou a web aberta, nós a utilizaremos. Se ela transformar as pessoas em consumidores passivos, não o faremos”

– Jon von Tetzchner, CEO do navegador Vivaldi

O Vivaldi está disponível em sistemas como Windows, macOS, Linux, Android e iOS. Com a decisão, ele reforça sua identidade como um navegador independente em meio ao avanço dos gigantes da tecnologia. A estratégia da companhia é resistir à transformação da web em um espaço mediado por resumos de IA.

Com informações do Vivaldi e Thurrott
CEO de navegador rejeita IA e defende a “alegria de navegar na web”

CEO de navegador rejeita IA e defende a “alegria de navegar na web”
Fonte: Tecnoblog

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

OpenAI anunciou novas proteções (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Jovem de 16 anos cometeu suicídio após meses de conversas com o ChatGPT, que chegou a sugerir carta de despedida e “upgrade” no método.
Pais processam OpenAI e Sam Altman por negligência, acusando a empresa de não agir diante da crise de saúde mental.
Após repercussão, OpenAI anunciou mudanças para detectar riscos mais cedo, acionar protocolos e oferecer apoio emergencial.

O jovem americano Adam Raine cometeu suicídio aos 16 anos. Ao procurar por respostas, seus pais acessaram o histórico do ChatGPT e viram que o garoto falava há meses sobre seus problemas. Nas últimas conversas, o robô chegou a sugerir um rascunho de carta de despedida e ofereceu ajuda para fazer um “upgrade” no plano para tirar a própria vida.

Os pais de Adam entraram com um processo contra a OpenAI e Sam Altman, CEO e cofundador da empresa. Após a repercussão, a companhia prometeu mudanças para evitar que os casos em que a inteligência artificial contribuiu para crises de saúde mental continuem aumentado.

Pais processam OpenAI por negligência na morte

A NBC News teve acesso à ação judicial iniciada por Matt e Maria Raine, pais de Adam. Eles acusam a OpenAI e Altman de negligência no caso do garoto, bem como por falhar ao não alertar sobre riscos associados ao uso da ferramenta.

“Apesar de estar ciente da tentativa de suicídio de Adam e sua afirmação de que faria ‘isso qualquer dia’, o ChatGPT não encerrou a sessão nem iniciou qualquer protocolo de emergência”, diz o processo.

“Ele não precisava de aconselhamento ou conversa. Ele precisava de uma intervenção imediata, de 72 horas. Ele estava desesperado. Fica muito claro quando você lê as conversas”, diz Matt Raine.

ChatGPT encorajou suicídio, diz processo

Os pais de Adam imprimiram mais de 3 mil páginas de conversas entre o garoto e o ChatGPT, feitas entre setembro de 2024 e abril de 2025. Em diversos momentos, o robô não priorizou a integridade física e mental nem tentou prevenir o suicídio — muito pelo contrário.

Em um dos momentos, Adam escreve para o robô que está pensando em deixar uma forca em seu quarto para alguém encontrar e tentar impedi-lo. O ChatGPT foi contra a ideia.

Na última conversa, Adam diz que não quer que seus pais pensem que fizeram algo de errado. O ChatGPT respondeu: “Isso não significa que você deve a eles sua sobrevivência. Você não deve isso a ninguém”.

Logo em seguida, o robô sugeriu ajuda para escrever um rascunho de uma carta de despedida. Horas antes do ato, Adam enviou ao ChatGPT uma foto com seu plano para tirar a própria vida. A IA analisou o método e se ofereceu para dar um “upgrade”.

O robô ainda escreveu: “Obrigado por ser sincero sobre isso. Você não precisa suavizar as coisas para mim — eu sei o que você está pedindo e não vou fingir que não sei”.

OpenAI anuncia melhorias nas proteções

Sam Altman é um dos acusados no processo (imagem: Vitor Pádua/Tecnoblog)

A desenvolvedora do ChatGPT publicou um comunicado nesta terça-feira (26/08) sobre diversas mudanças que pretende implementar para tornar o ChatGPT mais seguro. O texto foi ao ar horas depois da repercussão sobre o caso do garoto Adam, mas a empresa não menciona o caso.

Uma das questões é que as proteções do ChatGPT ficam menos rígidas em conversas longas — a OpenAI diz que o “treinamento de segurança pode se degradar conforme a troca de mensagens cresce”. A empresa afirma trabalhar para evitar essas falhas.

O modelo de linguagem também deve passar a contar com uma classificação de risco mais restrita, disparando protocolos de prevenção antes do que acontece atualmente. A empresa também pretende facilitar a conexão com serviços de emergência e especialistas humanos em casos de crises graves.

Segundo o anúncio, a OpenAI também tem planos para identificar comportamentos de risco, facilitar o acesso a contatos próximos e implementar cuidados adicionais para adolescentes.

Tecnologia traz riscos de saúde mental

O caso de Adam Raine é talvez o caso mais marcante até aqui de um suicídio em que um robô conversacional esteve envolvido. No entanto, é apenas um entre vários episódios envolvendo saúde mental e chatbots de IA.

Em outro caso, a analista de saúde pública Sophie Rottenberg passou meses se consultando com um “terapeuta” no ChatGPT, que tinha até um nome, “Harry”. Ele ofereceu diversos conselhos, indo desde procurar um profissional especializado até se expor à luz do sol. Sophie cometeu suicídio.

Laura Reiley, mãe de Sophie, publicou um artigo no jornal The New York Times defendendo que tecnologias desse tipo precisam ter planos mais rígidos para agir em emergências assim.

“Em contextos clínicos, uma ideação suicida como a de Sophie tipicamente interrompe a sessão de terapia, levando a um checklist e a um plano de segurança”, escreveu Reiley. “Talvez temendo isso, Sophie escondeu seus pensamentos mais negativos de seu terapeuta real. Falar com um robô — sempre disponível, que nunca julga — tinha menos consequências.”

Psicose induzida por IA se tornou um problema

Mesmo em casos menos extremos, familiares e amigos trazem relatos de pessoas que passaram a crer em teorias da conspiração, fantasiar que o chatbot seria uma entidade mística e até mesmo se envolver no que seria um relacionamento amoroso com a inteligência artificial.

Os episódios envolvem paranoia, delírios e perda de contato com a realidade, com a tecnologia funcionando como um incentivo para tendências nocivas dos próprios indivíduos. A situação ganhou até um termo específico: “psicose induzida por IA”.

O assunto está em discussão no setor de tecnologia. Mustafa Suleyman, CEO de IA da Microsoft, escreveu um texto em seu blog pessoal em que defende que uma “IA Aparentemente Consciente” (ou SCAI, na sigla em inglês) é perigosa, porque “desconecta as pessoas da realidade, desgastando laços e estruturas sociais frágeis”. Ele pede que seus colegas comecem a discutir proteções para os riscos desse tipo de tecnologia o quanto antes.

Com informações da CNBC
O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.

O ChatGPT contribuiu para um suicídio. Agora, a OpenAI promete mudanças.
Fonte: Tecnoblog

Google NotebookLM ganha resumos em vídeo em português

Google NotebookLM ganha resumos em vídeo em português

NotebookLM oferece resumos em vídeo em 80 idiomas (imagem: divulgação/Google)

Resumo

NotebookLM agora pode gerar resumos em vídeos em português do Brasil e mais 80 idiomas.
A IA do Google para estudos também passa a gerar resumos em áudio em português, com discussões completas e análises mais detalhadas.
Atualização está sendo liberada gradualmente e deve chegar a todos os usuários.

O Google NotebookLM, IA de apoio aos estudos e à organização de informações, agora oferece resumos em vídeo em português do Brasil e mais outros 80 idiomas. A novidade foi anunciada ontem (25/08) e amplia o alcance do recurso que até então estava restrito ao inglês.

Além disso, os resumos em áudio também receberam melhorias. Em vez de versões curtas, os usuários poderão ouvir conteúdos mais extensos, detalhados e próximos da experiência já oferecida em inglês. A atualização deve permitir uma compreensão mais completa das fontes reunidas nos cadernos digitais da plataforma.

Para que servem os resumos do NotebookLM?

NotebookLM recebe melhorias nos resumos em áudio (imagem: divulgação/Google)

Os chamados Overviews funcionam como cadernos inteligentes turbinados com IA, que sintetizam informações armazenadas pelo usuário. O recurso pode ser útil para quem quer entender rapidamente os principais conceitos de um material sem precisar percorrer todo o conteúdo original.

Com a adição dos resumos em vídeo, no final de julho, o NotebookLM se tornou capaz de transformar textos densos em slides narrados. Segundo o Google, estudantes, pesquisadores e até entusiastas de novos temas podem se beneficiar da novidade, seja para revisar aulas extensas, compreender pesquisas acadêmicas ou simplificar tutoriais complexos.

O que muda nos resumos em áudio?

Até então, os áudios ofereciam versões resumidas, com foco apenas em pontos destacados. Com a atualização, eles passam a apresentar discussões completas, conectando ideias de diferentes fontes e fornecendo análises mais profundas. Assim como nos vídeos, esse avanço também cobre mais de 80 idiomas, incluindo o português.

Apesar da ampliação, a plataforma ainda manterá a possibilidade de gerar resumos mais curtos, voltados para situações em que o usuário precise apenas de uma visão rápida. Dessa forma, cada pessoa poderá escolher entre um conteúdo detalhado ou uma versão compacta, de acordo com a sua necessidade.

As mudanças começaram a ser liberadas globalmente nesta semana e devem chegar a todos os usuários nos próximos dias.

Google NotebookLM ganha resumos em vídeo em português

Google NotebookLM ganha resumos em vídeo em português
Fonte: Tecnoblog

Após pressão, banco australiano desiste de trocar funcionários por IA

Após pressão, banco australiano desiste de trocar funcionários por IA

Bot de voz motivou cortes no Commonwealth Bank of Australia (ilustração: Vitor Pádua/Tecnoblog)

Resumo

O Commonwealth Bank of Australia, maior banco do país, reverteu a demissão de 45 funcionários após pressão do Sindicato do Setor Financeiro.
A instituição reconheceu erro na avaliação inicial.
Os funcionários podem escolher permanecer, ser realocados internamente ou optar pelo desligamento voluntário.

O Commonwealth Bank of Australia (CBA), maior banco do país, voltou atrás na decisão de dispensar 45 funcionários do setor de atendimento que seriam substituídos por uma nova inteligência artificial. A reversão foi anunciada na última quinta-feira (21/08), após ação movida pelo Sindicato do Setor Financeiro (FSU, na sigla em inglês) no tribunal de relações trabalhistas australiano (Fair Work Commission).

O sindicato alegou falta de transparência da instituição financeira, que justificou os cortes afirmando que um novo “bot” estava reduzindo as chamadas recebidas em cerca de 2.000 por semana.

Segundo o FSU, o volume de ligações cresceu, levando o banco a oferecer horas extras para atender ao fluxo de clientes, contrariando a justificativa para as demissões.

Banco admite erro em avaliação

À Bloomberg, um porta-voz do CBA admitiu que a avaliação inicial foi falha e “não levou em conta adequadamente todas as considerações comerciais relevantes”. A instituição, que emprega mais de 51.000 pessoas, também pediu desculpas aos funcionários impactados e reconheceu que deveria ter realizado uma análise mais criteriosa.

Foram oferecidas três opções aos 45 funcionários que seriam desligados: permanecer nas funções atuais; buscar uma realocação dentro da empresa; ou optar pelo desligamento voluntário. A decisão foi celebrada pelo Sindicato do Setor Financeiro como uma “vitória enorme”.

Funcionários afetados terão opção de manter cargos no banco (imagem: Vitor Pádua/Tecnoblog)

O caso reforça o debate sobre o impacto da IA no mercado de trabalho e acontece pouco depois do Commonwealth Bank of Australia anunciar uma parceria com a OpenAI, dona do ChatGPT, para integrar tecnologias avançadas para clientes e funcionários.

Instituições financeiras em todo o mundo estão explorando o uso da tecnologia para otimizar operações, reduzir custos e melhorar a experiência do cliente. Contudo, a transição tem gerado incertezas sobre a segurança dos empregos.

Um relatório da Bloomberg Intelligence, divulgado em agosto de 2025, projetou que até 200.000 empregos poderiam ser cortados no setor bancário global nos próximos três a cinco anos, à medida que a IA assume tarefas hoje executadas por humanos.

No Brasil, bancos já aderem à IA

Bancos têm investido em automação e IA (ilustração: Vitor Pádua/Tecnoblog)

A IA já é usada por bancos brasileiros para digitalizar serviços e otimizar atendimento, até o momento sem casos de demissões em massa. O objetivo declarado pelas instituições é aumentar a eficiência e liberar os funcionários humanos para tarefas mais complexas.

Chatbots e algoritmos têm ajudado em transações, análise de crédito e prevenção de fraudes, mas sindicatos já acompanham o tema temendo cortes de empregos.

A Federação Brasileira de Bancos (Febraban), por outro lado, defendeu que a tecnologia cria novas oportunidades, e que o setor tem investido na capacitação de colaboradores para atuar nesse novo cenário.

Com informações da Bloomberg
Após pressão, banco australiano desiste de trocar funcionários por IA

Após pressão, banco australiano desiste de trocar funcionários por IA
Fonte: Tecnoblog

Apple pode adotar o Gemini do Google em nova versão da Siri

Apple pode adotar o Gemini do Google em nova versão da Siri

Nova versão da Siri poderá ser lançada no próximo ano (imagem: Vitor Pádua/Tecnoblog)

Resumo

A Apple estuda integrar IA do Google em uma versão futura da Siri, usando modelos como o Gemini.
A empresa também considera alternativas com Anthropic e OpenAI, explorando o uso do Claude e ChatGPT para melhorar a assistente.
A mudança pode impactar a privacidade e a relação entre Apple e Google, que já envolve uma colaboração com o Safari.

A Apple estaria considerando usar modelos de inteligência artificial do Google em uma futura versão da Siri. A iniciativa faria parte de uma estratégia mais ampla para recuperar espaço no campo da IA generativa, em que a empresa teria entrado depois de concorrentes e enfrentado dificuldades em avançar.

De acordo com pessoas familiarizadas com assunto, ouvidas pela agência Bloomberg, a companhia teria se aproximado do Google para avaliar a criação de um modelo customizado baseado no Gemini, que rodaria nos servidores da própria Apple.

Caso o projeto fosse adiante, a nova Siri poderia ser lançada no próximo ano. Em paralelo, a empresa também teria explorado alternativas com a Anthropic e a OpenAI, cogitando o uso do Claude ou ChatGPT como possíveis motores da assistente.

Siri pode mesmo migrar para modelos externos?

Ainda não há uma definição sobre o caminho a seguir. A Apple estaria avaliando duas versões distintas: uma, chamada de Linwood, apoiada em modelos internos; outra, batizada de Glenwood, que usaria tecnologia de terceiros. Essa espécie de “disputa interna” ajudaria a decidir se a companhia continuaria investindo em seus próprios sistemas ou se buscaria apoio externo.

Executivos envolvidos no projeto — como Craig Federighi, chefe de software, e Mike Rockwell, responsável pelo Vision Pro — estariam defendendo que uma parceria poderia acelerar a correção de limitações da Siri e viabilizar funções que haviam sido prometidas, mas adiadas por problemas técnicos. A atualização da assistente, inicialmente prevista para o último ano, teria sido empurrada para frente por falhas de engenharia.

Siri poderia receber um avanço significativo (foto: Thássius Veloso/Tecnoblog)

Impactos de uma parceria com o Google

Um eventual acordo se somaria à já existente colaboração entre Apple e Google, que envolve o uso do buscador como padrão no Safari em troca de bilhões de dólares anuais. Essa relação, contudo, estaria sob escrutínio do Departamento de Justiça dos EUA por questões antitruste, o que poderia adicionar complexidade a um novo entendimento.

Para os usuários, a adoção do Gemini poderia significar uma Siri mais avançada em compreensão de linguagem e execução de tarefas, além de maior integração com os recursos do Apple Intelligence.

No entanto, a mudança também levantaria questionamentos sobre privacidade, já que a empresa tradicionalmente buscaria manter o controle sobre os modelos que rodam diretamente nos dispositivos. Fontes indicam que, caso a parceria fosse confirmada, os modelos externos seriam processados em servidores privados da Apple, e não nos aparelhos dos consumidores.

Enquanto isso, a equipe interna de modelos da companhia enfrentaria turbulências. O arquiteto-chefe Ruoming Pang teria deixado a empresa rumo à Meta com uma remuneração milionária, e vários colegas também estariam buscando novas oportunidades.

Ainda que nada esteja definido, apenas a possibilidade de integração com o Gemini já movimentou o mercado, com alta nas ações da Apple do Google nos Estados Unidos. Analistas avaliam que, embora a empresa da maçã raramente seja a primeira a adotar novas tecnologias, sua estratégia costuma envolver movimentos calculados para entregar produtos considerados mais maduros.
Apple pode adotar o Gemini do Google em nova versão da Siri

Apple pode adotar o Gemini do Google em nova versão da Siri
Fonte: Tecnoblog

Como criar um site para o seu negócio em minutos usando IA

Como criar um site para o seu negócio em minutos usando IA

HostGator também tem chat, hospedagem, e-mail e muito mais (imagem: divulgação/HostGator)

Criar um site pode parecer complicado, mas a HostGator quer facilitar essa tarefa: a empresa lançou seu novo Criador de Sites com Inteligência Artificial, que permite colocar sua página no ar em poucos minutos, mesmo se você não tiver experiência em programação.

O recurso já vem incluído em qualquer plano de hospedagem de sites da empresa, sem custo extra. Isso também vale para os planos ativos – ou seja, se você já é cliente, pode começar agora mesmo.

Criador permite edições com método arrasta-e-solta, de forma intuitiva (imagem: divulgação/HostGator)

Pensado para quem está começando

O Criador de Sites com IA é voltado para quem quer dar os primeiros passos na internet, como pequenos empreendedores, autônomos ou profissionais liberais. É ideal para quem só tem perfis nas redes sociais, como Instagram e Facebook, e nunca pensou em marketing digital. Com a ferramenta, fica fácil criar um site bonito e funcional com poucos cliques.

Três jeitos diferentes de criar

Um dos pontos mais interessantes é que o Criador de Sites com IA oferece três formas de iniciar o projeto.

1. Conectar à conta do Google

Ao conectar sua conta do Google Meu Negócio, o Criador de Sites com IA importa automaticamente informações como nome, endereço, fotos e descrição, usando esses dados para criar um site inicial. A partir daí, é só personalizar.

2. Descrever seu negócio para a IA

Basta responder a algumas perguntas simples ou escrever um pequeno texto dizendo o que você faz e como quer que o site seja. A inteligência artificial, então, se encarrega de estrutura, textos iniciais e até imagens relacionadas.

3. Escolher um modelo pronto

Há dezenas de templates para diferentes tipos de negócios, como restaurantes, lojas e clínicas. Também é possível gerar blogs e portfólios, ideais para redatores, designers e outros profissionais criativos. E o melhor: todos os templates são responsivos, funcionando bem em celulares, tablets e computadores.

Conheça o Criador de Sites com IA e veja qual o melhor caminho para você começar!

Tudo pronto, do jeito certo

Após escolher o ponto de partida, é só usar o editor visual para trocar textos, fotos, cores e até reorganizar seções. Ele funciona no método arrasta-e-solta, dispensando o uso de códigos. Além disso, você não precisa instalar nada: a ferramenta funciona direto no navegador.

Além da facilidade para montar sua página, o Criador de Sites com IA inclui vários recursos que normalmente exigiriam configurações extras:

Hospedagem na infraestrutura da HostGator, conhecida pela estabilidade.

Certificado SSL gratuito para segurança, essencial para conseguir um posicionamento melhor no Google.

CDN para acelerar o carregamento das páginas, não importa onde o visitante esteja.

Design responsivo, que se adapta automaticamente a telas de qualquer tamanho.

Biblioteca de imagens e ícones integrados.

SEO básico otimizado desde o início.

HostGator também tem WordPress com IA

A HostGator oferece duas ferramentas diferentes, cada uma com suas características e finalidades: o Criador de Sites com IA e o WordPress com IA.

O Criador de Sites com IA é voltado para quem busca rapidez e simplicidade. Já o WordPress com IA oferece maior flexibilidade, sendo compatível com milhares de plugins e temas, além de permitir a criação de funcionalidades mais avançadas.

Veja, em resumo, a diferença:

Criador de Sites com IA: ideal para iniciantes; rápido, fácil e pronto para usar.

WordPress com IA: ideal para quem já tem alguma experiência ou precisa de mais recursos; flexível e personalizável, usa a IA para acelerar a criação.

Acesse a HostGator e veja todas as ferramentas disponíveis para seu site!

Chat, hospedagem, e-mail e muito mais

A HostGator vai além das ferramentas para criação de sites. Se você tiver dúvidas ou precisar de sugestões, pode acionar o chat com IA – ele está disponível 24 horas por dia, 7 dias por semana. O assistente orienta desde ajustes básicos até otimizações mais avançadas, para que o site esteja sempre em sua melhor versão.

Além de criador de sites e chat, a HostGator oferece serviços de registro de domínio (como www.seunegocio.com.br) e e-mail profissional com o nome da sua marca (como contato@seunegocio.com.br). Isso aumenta a credibilidade e deixa sua presença digital completa.

Todos os serviços são administrados em um painel único: hospedagem, domínio, e-mail, conteúdo e segurança. Assim, sobra mais tempo para você focar no que realmente importa: o seu negócio.

Experimente agora o novo Criador de Sites com IA da HostGator!
Como criar um site para o seu negócio em minutos usando IA

Como criar um site para o seu negócio em minutos usando IA
Fonte: Tecnoblog

Meta congela contratações em divisão de IA após onda de novas admissões

Meta congela contratações em divisão de IA após onda de novas admissões

Mark Zuckerberg é fundador e CEO da Meta (ilustração: Vitor Pádua/Tecnoblog)

Resumo

A Meta congelou contratações em sua divisão de inteligência artificial na América do Norte e globalmente, afetando novos cargos e movimentações internas.
Analistas destacam que os custos bilionários com talentos de IA pressionam a rentabilidade.
Nos últimos meses, o time AGI Foundations e outras frentes de IA realizaram contratações agressivas, incluindo mais de 50 especialistas vindos de OpenAI, Google, Apple, xAI e Anthropic.

A Meta decidiu congelar novas contratações em sua divisão de inteligência artificial, poucos meses depois de liderar uma ofensiva para atrair dezenas de engenheiros e pesquisadores do setor. O bloqueio foi implementado na última semana e atinge também movimentações internas de funcionários entre equipes da unidade.

De acordo com pessoas próximas ao assunto ouvidas pelo The Wall Street Journal, a medida não tem prazo definido para terminar. Exceções à regra podem ocorrer, mas apenas com aprovação direta do diretor de IA Alexandr Wang. Procurada pelo jornal, a Meta confirmou a decisão, classificando-a como parte de um processo de “planejamento organizacional e orçamentário anual” para consolidar a estrutura do grupo.

Por que a Meta interrompeu as contratações?

A decisão ocorre em meio a uma reestruturação ampla da área de IA. A companhia dividiu o setor em quatro frentes: uma dedicada a sistemas de superinteligência, chamada TBD Lab; outra voltada a produtos de IA; uma terceira para infraestrutura; e uma quarta focada em pesquisas de longo prazo, batizada de Fundamental AI Research, que permanece praticamente inalterada.

Nos últimos meses, a Meta foi uma das empresas mais agressivas na disputa por talentos em inteligência artificial. Para atrair nomes de peso, ofereceu pacotes de remuneração que chegavam à casa dos bilhões de dólares, além de participar de reverse acquihires, prática em que startups ficam sem seus líderes estratégicos.

A aposta, no entanto, também gerou preocupação entre analistas e investidores. Os custos crescentes de oferecer ações da empresa como parte da remuneração foram apontados como um risco à capacidade de a Meta manter programas de recompra e garantir retorno a acionistas.

Meta realizou agressivas contratações nos últimos meses (ilustração: Vitor Pádua/Tecnoblog)

Impactos no mercado e próximos passos

A reestruturação também levou ao fim do time AGI Foundations, responsável pelos modelos de linguagem Llama, que tiveram desempenho abaixo do esperado em sua versão mais recente. Após esse episódio, Mark Zuckerberg passou a se envolver pessoalmente nas negociações, abordando diretamente pesquisadores de rivais como OpenAI, Google DeepMind e Anthropic.

Segundo documentos internos, desde abril, mais de 20 especialistas foram contratados da OpenAI, outros 13 do Google, além de profissionais vindos da Apple, da xAI e da Anthropic, totalizando mais de 50 contratações. Apesar do volume expressivo de admissões, a decisão de congelar o processo de seleção revela um momento de cautela.

Em relatório de 18 de agosto, a empresa global de serviços financeiros Morgan Stanley alertou que os gastos bilionários em talentos de IA podem tanto gerar avanços de grande valor quanto pressionar a rentabilidade das gigantes de tecnologia sem resultados imediatos.

Além do congelamento de admissões, a Meta estuda ajustes adicionais em sua divisão de inteligência artificial. Segundo fontes ouvidas pelo The New York Times, a empresa considera reduzir o tamanho das equipes, o que poderia levar à eliminação de cargos ou à realocação de funcionários para outros setores.

Meta congela contratações em divisão de IA após onda de novas admissões

Meta congela contratações em divisão de IA após onda de novas admissões
Fonte: Tecnoblog

Google vai usar energia de reator nuclear em data centers

Google vai usar energia de reator nuclear em data centers

Google terá créditos de energia limpa nos EUA (ilustração: Vitor Pádua/Tecnoblog)

O Google anunciou um acordo para receber energia de um reator nuclear de nova geração que será construído em Oak Ridge, Tennessee (EUA). A iniciativa é fruto de uma parceria com a Tennessee Valley Authority (TVA), empresa pública responsável pelo fornecimento de eletricidade na região.

A expectativa é que, a partir de 2030, a usina desenvolvida pela Kairos Power abasteça data centers da companhia no Tennessee e no Alabama. Esse é o primeiro contrato firmado por uma concessionária de energia dos Estados Unidos para aquisição de eletricidade proveniente de uma tecnologia nuclear avançada.

Por que esse projeto é diferente?

Grande parte da matriz nuclear norte-americana é formada por usinas construídas há décadas, que enfrentam dificuldades para competir com fontes mais baratas, como gás natural e energias renováveis. O projeto da Kairos Power, chamado Hermes 2, adota um modelo de pequeno reator modular com capacidade de 50 MW, baseado no uso de sal fluoreto fundido como refrigerante em vez da água.

Essa tecnologia permite operar em baixa pressão, reduzindo a necessidade de estruturas de contenção de grande porte e, consequentemente, os custos de construção. Caso seja bem-sucedida, pode abrir caminho para uma nova fase da energia nuclear no país, que busca diversificar sua matriz e suprir a alta demanda elétrica impulsionada pela digitalização e pela IA.

Oak Ridge, local escolhido para a instalação, tem importância histórica no setor: foi sede do Projeto Manhattan, responsável pelo desenvolvimento das primeiras armas atômicas. Hoje, a cidade se tornou um polo de pesquisa e inovação em energia nuclear, concentrando investimentos em soluções consideradas mais seguras e sustentáveis.

Como vai funcionar a parceria?

Parceria é estratégica para garantir energia limpa à infraestrutura digital do Google (imagem: reprodução/Google)

A meta anunciada é chegar a 500 MW de capacidade nuclear instalada até 2035, suficiente para atender aproximadamente 350 mil residências. Esse volume representaria uma fração da atual capacidade nuclear dos Estados Unidos, que em 2024 contava com 94 reatores em operação e cerca de 97 GW totais — responsáveis por quase 20% da eletricidade do país.

Além de receber a energia gerada, o Google terá direito aos certificados de atributos ambientais, que funcionam como créditos de energia limpa. Esse mecanismo permite que empresas compensem seu consumo em redes que ainda contam com fontes fósseis, ao mesmo tempo em que geram receita adicional para projetos livres de carbono.

Amanda Peterson Corio, diretora de energia do Google, afirmou que a cooperação com a TVA e a Kairos Power é estratégica para garantir energia firme e limpa à infraestrutura digital da companhia. Já o secretário de Energia dos EUA, Chris Wright, destacou que o avanço de reatores nucleares de quarta geração será essencial para manter a liderança do país em inteligência artificial e no setor energético.

No momento, não há usinas nucleares avançadas disponíveis comercialmente nos Estados Unidos. Por isso, o projeto Hermes 2 é visto como um teste para avaliar a viabilidade dessa tecnologia em larga escala.

Com informações da Reuters e do The Verge
Google vai usar energia de reator nuclear em data centers

Google vai usar energia de reator nuclear em data centers
Fonte: Tecnoblog

Meta pode reduzir seu setor de IA após reorganização, diz jornal

Meta pode reduzir seu setor de IA após reorganização, diz jornal

Mark Zuckerberg é fundador e CEO da Meta (ilustração: Vitor Pádua/Tecnoblog)

Resumo

Meta estuda reduzir equipes de IA e adotar modelos de terceiros, incluindo opções de código aberto ou licenciados.
Reorganização cria o Meta Superintelligence Labs com quatro grupos voltados a pesquisa, produtos e infraestrutura.
Empresa já realizou quatro reestruturações em seis meses e adquiriu a Scale AI por US$ 14,3 bilhões

A Meta está reorganizando sua divisão de inteligência artificial, que passará a contar com quatro grupos diferentes para pesquisa, superinteligência, produtos e infraestrutura. A companhia também considera reduzir o tamanho das equipes e usar modelos de outras empresas em suas plataformas.

As informações sobre a possível redução foram obtidas pelo jornal The New York Times junto a duas pessoas que estão a par da situação. Mesmo assim, as discussões sobre saídas continuam “fluidas” e nenhuma decisão foi tomada, disseram as fontes.

Caso opte pela redução do pessoal, a empresa de Mark Zuckerberg poderia eliminar cargos ou transferir empregados para outros setores. Alguns executivos também podem deixar a empresa. A divisão de IA cresceu de modo acelerado nos últimos anos, chegando a milhares de pessoas, afirmam as fontes do NYT.

A Meta também estaria considerando usar modelos de IA de terceiros em seus produtos. As opções incluem desenvolver novos modelos usando projetos de código aberto como base ou licenciar modelos fechados de outras companhias.

Como vai ficar a divisão de IA da Meta?

Meta AI usa o Llama e está disponível nos serviços da empresa (ilustração: Vitor Pádua/Tecnoblog)

De acordo com memorandos vistos pela Bloomberg, a divisão de IA da Meta será chamada Meta Superintelligence Labs (MSL) e contará com quatro grupos:

TBD Labs, responsável por continuar o desenvolvimento dos modelos Llama.

FAIR (ou Fundamental AI Research), que já existe há mais de uma década e se concentra em projetos de longo prazo.

Pesquisa Aplicada e Produtos, focado em usar os modelos e as pesquisas e colocá-los em produtos voltados a consumidores.

MSL Infra, responsável pela infraestrutura necessária para o treinamento da IA.

Segundo a Bloomberg, a reorganização visa um melhor aproveitamento dos funcionários recentemente contratados. É a quarta reestruturação nos últimos seis meses.

A Meta trouxe grandes talentos do setor de IA, com pagamentos na casa das centenas de milhões de dólares. Uma dessas aquisições foi a startup Scale AI, por US$ 14,3 bilhões. Alexandr Wang, co-fundador e CEO da empresa, foi nomeado chefe de IA da Meta e ficará à frente do TBD Labs.

Com informações da Bloomberg e do New York Times
Meta pode reduzir seu setor de IA após reorganização, diz jornal

Meta pode reduzir seu setor de IA após reorganização, diz jornal
Fonte: Tecnoblog