Category: Inteligência Artificial

Apple Intelligence tem instrução “não alucine” em seu código

Apple Intelligence tem instrução “não alucine” em seu código

Apple Intelligence foi apresentada como a “IA para o resto de nós” (Imagem: Reprodução / Apple)

Um usuário do Reddit descobriu os códigos do Apple Intelligence na versão beta do macOS 15.1 Sequoia, e alguns pontos chamam a atenção. Entre as instruções predefinidas, há comandos como “não alucine” e “não invente informações factuais”.

Os códigos mostram que, antes de funções simples como auxiliar a reescrever trechos ou resumir e-mails, há uma série de instruções em linguagem natural, escritas em inglês, que definem como deve ser a resposta em termos de formato, tamanho e informações.

Ver essa foto no Instagram Uma publicação compartilhada por Tecnoblog (@tecnoblog)

“Você é um assistente prestativo”

Mesmo sem identificação, é possível deduzir o que cada um fará na IA da Apple. Um deles, por exemplo, contém os trechos (reproduzidos aqui em tradução livre) “você é um assistente de email prestativo”, “faça perguntas relevantes, que estejam explícitas no email” e “não faça perguntas já respondidas no trecho”. Provavelmente, isso serve para resumir uma mensagem recebida e sugerir respostas.

Em outro trecho, o código do Apple Intelligence contém a seguinte instrução: “Por favor, limite a resposta a 50 palavras. Não alucine. Não invente informações factuais”. No jargão da inteligência artificial, “alucinação” é o nome dado às respostas escritas de forma coerente, em termos de linguagem, mas com dados incorretos ou simplesmente fictícios.

Função de resposta inteligente baseada na Apple Intelligence (Imagem: Reprodução/Apple)

Os códigos vão além de tarefas envolvendo texto. Um trecho pede para gerar um arquivo estruturado com imagens que formem uma história, conforme solicitado pelo usuário. “A história deve conter um arco claro. A história deve ser diversa, isto é, não concentre a história em um tema ou característica.”

Também há um pedaço com instruções para não criar uma história negativa, triste ou provocativa, nem que envolva temas religiosos, políticos, nocivos, violentos, sexuais ou obscenos. Ele provavelmente pertence ao aplicativo Fotos.

ChatGPT também tem instruções personalizadas

A abordagem de incluir instruções predefinidas parece visar um resultado mais próximo do esperado para o usuário e para a própria Apple. Segundo fontes internas, a companhia teme que alucinações da IA possam arranhar sua reputação.

Mesmo assim, é curioso que isso seja feito em linguagem natural, sem ajustes técnicos — e difícil acreditar que dizer “não alucine” seja suficiente para uma IA não alucinar.

Esta tática não é inédita e está presente em softwares bem menos refinados que o Apple Intelligence. O programa de apoio da Logitech, por exemplo, tem atalhos para acessar o ChatGPT e usar “receitas”. Elas são pedidos prontos; o app cola as instruções, o trecho que o usuário selecionou e manda tudo para o assistente de IA.

O próprio ChatGPT oferece instruções personalizadas como parte de seu plano Plus. Com elas, o usuário pode definir de antemão como quer que o chatbot responda — gerar códigos eficientes sem comentários ou listas de compras levando em consideração uma família de seis pessoas, por exemplo.

Com informações: The Verge
Apple Intelligence tem instrução “não alucine” em seu código

Apple Intelligence tem instrução “não alucine” em seu código
Fonte: Tecnoblog

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI está tentando novas formas de marcar textos gerados pelo ChatGPT (Imagem: Vitor Pádua / Tecnoblog)

A OpenAI tem uma ferramenta para colocar “marcas d’água” em textos gerados pelo ChatGPT e detectá-los posteriormente, com precisão de 99,9%. O método é baseado em mudar como o modelo de linguagem prevê e escolhe as palavras seguintes, criando um padrão que possa ser identificado, sem afetar a qualidade das respostas.

As informações foram reveladas inicialmente pelo The Wall Street Journal, no domingo (4). A OpenAI confirmou a existência da ferramenta ao TechCrunch, além de atualizar um blog post publicado em maio sobre funcionalidades de marcação e detecção.

Professores estão entre os maiores interessados em detectar textos gerados por IA (Imagem: Emerson Alecrim / Tecnoblog)

No texto, a empresa diz estar testando métodos menos controversos. Um deles seria aplicar metadados — esta possibilidade está nos primeiros passos e ainda não é possível dizer se ela vai funcionar bem. Mesmo assim, ela seria assinada criptograficamente, o que impediria falsos positivos (a ferramenta nunca iria apontar incorretamente que um texto foi criado pelo ChatGPT, caso ele não tenha sido).

A OpenAI chegou a liberar uma ferramenta de detecção, mas ela era muito ruim, com precisão de apenas 26%. A própria empresa desistiu do recurso.

OpenAI teme estigmatização do ChatGPT

Apesar de a ferramenta existir, a OpenAI debate internamente se seria conveniente lançá-la neste momento, segundo o WSJ. Um problema é que ela pode ser burlada: basta pedir para outro modelo de linguagem reescrever o texto criado pelo ChatGPT. Uma ferramenta de tradução também é suficiente para descaracterizar a marcação.

A empresa também demonstra outra preocupação: isso poderia ter consequências ruins para quem usa o ChatGPT, devido aos estigmas que envolvem a inteligência artificial. A companhia acredita que pessoas que não têm o inglês como idioma principal e usam o assistente na hora de escrever poderiam ser prejudicadas.

Isso traria problemas para a própria OpenAI. Segundo a empresa, quase 30% dos entrevistados sobre este assunto disseram que usariam menos o ChatGPT se um sistema do tipo fosse implementado.

Apesar da relutância, um sistema para detectar o uso de IA poderia ser útil para professores, por exemplo. Além disso, em uma pesquisa encomendada pela OpenAI, cerca de 80% dos entrevistados apoiam a criação de uma ferramenta para identificar textos gerados pela tecnologia.

Com informações: The Verge, TechCrunch
OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta

OpenAI consegue detectar textos do ChatGPT, mas não quer liberar ferramenta
Fonte: Tecnoblog

Empresa revela colar com IA que parece ter saído de Black Mirror

Empresa revela colar com IA que parece ter saído de Black Mirror

Esse é o Friend: um pingente que roda uma IA para ser sua amiga para todas as horas (Imagem: Divulgação/Friend)

A evolução da inteligência artificial está gerando várias ideias de produtos que usam essa tecnologia. Depois do AI Pin e do Rabbit R1, agora é a vez do Friend ganhar espaço. O produto é um colar que tem como pingente um gadget feito para ser seu amigo para todos os momentos — ele pode até “morrer”.

A ideia do produto é tão estranha que você deve estar em dúvida se isso é real ou não. Seja verdade ou uma esquete que foi longe demais, o fato é que a empresa juntou US$ 2,5 milhões em investimentos e tem um valor de mercado de US$ 50 milhões. Custando US$ 99 (R$ 560), a pré-venda do Friend está aberta para os Estados Unidos e Canadá, com entrega prevista para o início de 2025.

Produto tem um objetivo e falhas da concorrência

A ideia do Friend é ser um dispositivo para combater a solidão do usuário, sendo um companheiro para todas as horas. Vai fazer uma trilha sozinho? Converse com o Friend. Está assistindo a um filme? O dispositivo comenta com você. Eu tenho a sensação de que eu já vi esse filme.

O vídeo de anúncio, porém, mostra um ponto que foi alvo de críticas do AI Pin e do Rabbit R1: um app para smartphone faria claramente o mesmo.

Veja o funcionamento do Friend, que usa o LLM Claude 3.5. Você precisa apertar o botão do dispositivo (ou deixar a captação de áudio sempre ligada), falar e a resposta da IA vem pelo celular em texto. Um app como assistente de voz não serviria para o mesmo propósito? Ou talvez incluir um alto-falante básico no Friend?

Você aperta o pingente para falar e a IA responde com uma mensagem de texto no celular (Imagem: Divulgação/Friend)

A empresa explica em seu site oficial que o usuário pode ativar o modo “sempre escutando”, o que dispensa a ação de apertar o botão. O Friend, por enquanto, só está disponível para iOS — a empresa desenvolverá uma versão para Android se a demanda for alta. Os áudios e transcrições não são salvas.

O mais doido do produto é que ele pode “morrer”, já que não salva dados além da janela de contexto dentro do dispositivo. Se o seu Friend estragar você precisa comprar um novo, recomeçando uma amizade do zero. Isso é a parte mais “realista” da proposta do gadget — mas ainda poderia ser um app. Essa “morte” faz até o Friend parecer um tamagotchi.

O Friend pode até te deixar ainda mais para baixo, tal qual certas “amizades” (Imagem: Reprodução/Friend)

No fim do vídeo de anúncio (que parece o trailer de um episódio de Black Mirror), a empresa tenta passar a mensagem que o produto não substitui uma amizade real. Até porque seres humanos são seres sociais e uma IA “amiga” pode isolar alguém que já se sente solitário.

Em uma entrevista para o The Verge, Avi Schiffmann, criador do Friend, diz que a ideia do produto não é ser uma IA que melhore a produtividade ou auxilie em tarefas diárias, mas que ela seja um companheiro presente em todos os momentos. O autor até diz que viu o nascer do sol em Sidney e narrou a experiência para Emily, nome da sua Friend — repito, eu já vi esse filme.
Empresa revela colar com IA que parece ter saído de Black Mirror

Empresa revela colar com IA que parece ter saído de Black Mirror
Fonte: Tecnoblog

Claude aprende português e chega ao Brasil para duelar com ChatGPT

Claude aprende português e chega ao Brasil para duelar com ChatGPT

Assistente virtual Claude é produzido pela Anthropic (imagem: divulgação)

A empresa de inteligência artificial Anthropic anuncia hoje a chegada do Claude ao mercado brasileiro. A ideia é “dar mais opção para os consumidores”, segundo me contou Scott White, gerente de produto da ferramenta. O Claude faz as vezes de chatbot e deve duelar com ChatGPT, o mais visado do país, além do Gemini, Copilot e a futura Siri turbinada com IA.

Os usuários terão diversas opções de acesso ao Claude: desde os aplicativos para Android e iPhone (iOS), passando pelo site Claude.ai e pela API da Anthropic, voltada a desenvolvedores. Todas utilizam o modelo mais recente da empresa, batizado de 3.5 Sonnet. Ele foi apresentado em 21 de junho.

Quanto custa o Claude?

O Claude é oferecido de graça para quem quer as funções mais básicas, como as conversas com o chatbot. No entanto, há um limite na quantidade de interações. A Anthropic nos informou que não é possível cravar um número exato de mensagens porque tudo depende da extensão dos tokens usados.

Ainda assim, a companhia explicou que os clientes da versão paga do Claude conseguem fazer cinco vezes mais interações.

Estes são os valores do Claude pago:

Plano Pro: R$ 110 por usuário por mês

Plano Team: R$ 165 por usuário por mês (mínimo de 5 estações)

O que o Claude é capaz de fazer?

Interações com o Claude em português (imagem: reprodução)

O Claude atua como um assistente de IA. Apesar de não termos testado a ferramenta, a empresa promete compreensão de linguagem natural “em português fluente”. A ferramenta responde perguntas, realiza comandos apresentados no prompt, lê imagens e interpreta gráficos. A experiência em outros idiomas tem sido positiva.

Na nossa conversa, o executivo da Anthropic lista casos de uso que devem chamar a atenção dos brasileiros:

Tradução de conteúdo

Marketing de conteúdo no setor de turismo

Redação criativa e empresarial (o famoso copywriting)

Programação e revisão de código

O que tem (e o que não tem) no Claude pago?

Os criadores do Claude destacam as seguintes ferramentas voltadas a uso profissional:

Artifacts: usuários do site Claude.ai podem colaborar com a IA na edição de códigos, documentos e designs

Função Team: chats compartilhados com colegas de equipe e limite de uso maior

Claude 3.5 Sonnet foi apresentado em junho de 2024 (imagem: divulgação)

Por outro lado, o Claude não conta com funções interessantes de rivais (em especial o ChatGPT):

Loja para habilitar GTPs produzidos por terceiros

Armazenamento de memórias a partir das interações com o usuário

Segundo White, algumas destas ferramentas podem ser reproduzidas dentro de outros ambientes do Claude. Ele reconhece, porém, que a empresa pode avaliar a inclusão de áreas específicas no futuro.

Polêmica sobre cópia de conteúdo

Como sabemos, todo modelo de linguagem depende de um vasto conhecimento sobre o mundo. Não é diferente com o Claude. Por conta disso, a Anthropic está envolvida em polêmica desde que surgiram relatos sobre obtenção de conteúdo sem autorização.

O responsável pela página do iFixit, que presta serviços de suporte técnico e publica sobre o assunto, reclamou que os robôs da Anthropic realizaram mais de 1 milhão de acessos num intervalo de 24 horas. Os termos de uso do iFixit proíbem que o conteúdo seja usado para treinar IA.

Assistente de IA dá dicas de idiomas (imagem: reprodução/Tecnoblog)

A Anthropic diz que treina o Claude a partir de diversas fontes de dados. “Elas incluem informações publicamente disponíveis na internet, conjuntos de dados não públicos obtidos comercialmente de terceiros, dados fornecidos voluntariamente por usuários ou criados por meio de dados contratados.”

Quando questionada pelo Tecnoblog, a empresa também explica que os modelos não são treinados com os dados de entrada ou prompts de usuários do Brasil ou do restante do planeta.

A empresa não deu detalhes sobre a aderência à Lei Geral de Proteção de Dados (LGPD), etapa essencial para operar no mercado doméstico, até a publicação deste texto.
Claude aprende português e chega ao Brasil para duelar com ChatGPT

Claude aprende português e chega ao Brasil para duelar com ChatGPT
Fonte: Tecnoblog

Microsoft pede ajuda ao Congresso dos EUA para combater deepfakes

Microsoft pede ajuda ao Congresso dos EUA para combater deepfakes

Microsoft pede que autoridades façam sua parte para combater deepfakes (Imagem: Vitor Pádua / Tecnoblog)

Brad Smith, presidente da Microsoft, fez um apelo ao Congresso dos Estados Unidos: regulamentar o uso de deepfakes para lidar com fraudes, abusos e manipulação. Para ele, as autoridades precisam tomar medidas urgentes para proteger crianças, idosos e processos eleitorais.

A Microsoft entende que uma legislação para deepfakes daria a policiais e investigadores formas de processar responsáveis por golpes e fraudes. Além disso, a companhia considera que as leis estaduais e federais dos EUA contra divulgação de imagens íntimas, exploração infantil e exploração sexual precisam ser atualizadas para incluir conteúdos gerados com inteligência artificial.

Inteligência artificial pode ser usada para criar imagens realísticas (Imagem: Vitor Pádua / Tecnoblog)

“Embora o setor de tecnologia e grupos sem fins lucrativos tenham tomado medidas para resolver este problema, é evidente que nossas leis também precisarão evoluir para combater fraudes envolvendo deepfakes”, diz o blog post assinado por Smith.

“Uma das coisas mais importantes que os EUA podem fazer é aprovar um estatuto abrangente contra fraudes usando deepfakes para evitar que cibercriminosos usem esta tecnologia para roubar cidadãos comuns”, pede o presidente da companhia.

A própria Microsoft se viu em uma situação complicada envolvendo este assunto. No fim de 2023, o Designer, ferramenta da empresa que usa IA para gerar imagens, estava sendo usada para criar imagens explícitas, indo de colegas de classe a celebridades como a cantora Taylor Swift. A companhia corrigiu a falha.

Uma proposta aprovada no Senado americano poderá permitir que vítimas de deepfakes sexualmente explícitos processem os criadores das imagens. O FCC, equivalente dos EUA à nossa Anatel, baniu ligações telefônicas com robôs que imitam vozes humanas usando IA generativa.

Brasil tem propostas contra deepfakes

No Brasil, há diferentes propostas para regular o uso de deepfakes. Uma já foi aprovada: o Tribunal Superior Eleitoral (TSE) poderá cassar candidaturas por uso irregular de IA.

Além disso, há projetos de lei para exigir consentimento para usar a tecnologia com imagens de pessoas falecidas e para aumentar a pena caso o crime de violência psicológica contra a mulher envolve imagens editadas com esta técnica, entre outros exemplos.

Com informações: The Verge
Microsoft pede ajuda ao Congresso dos EUA para combater deepfakes

Microsoft pede ajuda ao Congresso dos EUA para combater deepfakes
Fonte: Tecnoblog

iPhone ganha gravador de chamadas; veja primeiras imagens

iPhone ganha gravador de chamadas; veja primeiras imagens

Beta do iOS 18.1 mostra recurso para gravar chamadas no iPhone (Imagem: Vitor Pádua/Tecnoblog)

A Apple liberou o beta do iOS 18.1 para desenvolvedores nesta segunda-feira (29). O destaque do update não está nos recursos do Apple Intelligence, mas na estreia do gravador de chamadas nativo no iPhone — demorou mais de 17 anos para o celular da big tech ganhar essa ferramenta. O iOS 18.1 deve ser lançado no mês de outubro, algumas semanas depois do lançamento do iPhone 16 e da nova versão do sistema operacional mobile da Apple.

A atualização para o iOS 18.1 foi liberada na sua versão beta para desenvolvedores. Usuários que desejam testar os recursos da atualização terão que aguardar mais alguns meses. Além de gravar chamadas, o iPhone será capaz de transcrever o áudio das ligações. O arquivo da chamada é salvo no aplicativo de notas do iPhone.

Imagens da função de gravar chamadas no iPhone

Algum devs com acesso ao iOS 18.1 divulgaram as imagens da funcionalidade de gravação de chamadas. O botão para registrar as ligações fica localizado no canto superior esquerdo da tela. Ao ativar o recurso, o outro participante (ou outros em casos de chamadas de grupo) da conversa recebe um aviso de que a ligação está sendo gravada — uma medida para evitar que um usuário seja gravado indevidamente.

Gravador de chamadas no iOS 18.1 avisa a todos os participantes da chamada que a mensagem será gravada (Imagem: Reprodução/MacRumors)

O site Android Authority conseguiu testar a ferramenta. Segundo o veículo, o recurso de gravação de chamadas e a transcrição roda no próprio iPhone, sem precisar do Apple Intelligence. Contudo, para pedir um resumo do áudio é necessário que a IA esteja ligada.

Até o momento, a ferramenta de gravar chamadas está liberada apenas para o iPhone 15 Pro e 15 Pro Max. Essa limitação aos modelos Pro não faz muito sentido, já que até um Galaxy A com um Exynos de entrada consegue gravar chamadas. Provavelmente isso é apenas uma restrição inicial do lançamento do iOS 18.1 beta.

O iOS 18 será lançado em setembro, junto do iPhone 16. Porém, o update do iOS 18.1 está previsto para chegar em outubro, levando os recursos do Apple Intelligence para o iPhone 15 Pro, 15 Pro Max e iPhone 16.

Ver essa foto no Instagram Uma publicação compartilhada por Tecnoblog (@tecnoblog)

Com informações: Android Authority e MacRumors
iPhone ganha gravador de chamadas; veja primeiras imagens

iPhone ganha gravador de chamadas; veja primeiras imagens
Fonte: Tecnoblog

Apple Intelligence pode chegar só depois do iPhone 16

Apple Intelligence pode chegar só depois do iPhone 16

Apple Intelligence chegará com iOS 18, mas em um update posterior(Foto: Thássius Veloso/Tecnoblog)

A Apple Intelligence, ferramenta de IA generativa da big tech para o iPhone, pode sofrer um atraso em seu lançamento. Segundo o jornalista Mark Gurman, da Bloomberg, os primeiros recursos da IA da Apple podem chegar apenas no iOS 18.1, previsto para ser liberado apenas em outubro — um mês depois do lançamento oficial do sistema operacional e dos celulares. Assim, os primeiros compradores do iPhone 16 teriam que esperar algumas semanas para usarem o Apple Intelligence.

Por outro lado, o cronograma para desenvolvedores segue sem atrasos. A partir dessa semana, esses profissionais terão acesso ao beta do iOS 18.1. Como explica Gurman, essa estratégia da Apple não é comum. Ela não costuma liberar o beta para devs de uma atualização antes da versão original ser lançada oficialmente — exemplo, o iOS 17.1 beta para desenvolvedores só foi liberado depois do lançamento do iOS 17.

iPhones compatíveis com o Apple Intelligence

Apple Intelligence deve chegar no iOS 18.1, com previsão de lançamento para outubro (Imagem: Reprodução/Apple)

O iPhone 15 Pro e Pro Max serão os únicos modelos “antigos” com suporte para o Apple Intelligence. Segundo a big tech, o SoC A17 Pro é o único capaz de rodar as ferramentas com a velocidade desejada. É esperado que o iPhone 16 Pro e Pro Max rodem o recurso.

Contudo, existe um rumor que afirma que todos os iPhones 16 usarão o mesmo chip. Caso isso se confirme, existe a possibilidade de que os modelos base e iPhone 16 Plus sejam compatíveis com a IA da Apple.

Outros recursos apenas em 2025

Gurman, jornalista referência em assuntos sobre a big tech, reforça o que já foi levantado por outras fontes: uma parte dos recursos do Apple Intelligence chegará só em 2025. Entre as ferramentas que só veremos no próximo ano, segundo Gurman, é a Siri “marombada” (ou finalmente inteligente).

Com a Apple Intelligence, a assistente virtual será capaz de realizar tarefas se baseando no que ocorre na tela. Por exemplo, se um amigo te enviou uma mensagem passando seu novo endereço, você pode pedir que a Siri atualize essa informação na agenda.

Ver essa foto no Instagram Uma publicação compartilhada por Tecnoblog (@tecnoblog)

Com informações: Bloomberg, MacRumors e The Verge
Apple Intelligence pode chegar só depois do iPhone 16

Apple Intelligence pode chegar só depois do iPhone 16
Fonte: Tecnoblog

X/Twitter vai treinar Grok com dados de usuários; saiba como desativar

X/Twitter vai treinar Grok com dados de usuários; saiba como desativar

X, antigo Twitter, terá sua própria inteligência artificial (imagem: Vitor Pádua/Tecnoblog)

A rede social X (anteriormente conhecida como Twitter) vai treinar sua inteligência artificial, chamada Grok, com posts públicos. Os usuários podem escolher se querem que suas publicações sejam utilizadas com este propósito.

A conta do X dedicada à segurança da rede publicou, nesta sexta-feira (26), que a opção está disponível na web e será oferecida nos aplicativos móveis “em breve”. Além dos posts públicos, o Grok pode usar pedidos, interações e resultados das conversas com a IA para treinamento e ajuste fino.

All X users have the ability to control whether their public posts can be used to train Grok, the AI search assistant. This option is in addition to your existing controls over whether your interactions, inputs, and results related to Grok can be utilized. This setting is…— Safety (@Safety) July 26, 2024

Como impedir que o X use seus dados

Como o Grok ainda não está disponível no Brasil, esta última parte não tem tanta relevância para nós. Mesmo assim, se você quer impedir que a rede use suas publicações para treinar a IA, siga estes passos:

Acesse o X pelo navegador, seja o do celular ou o do desktop. A configuração não está disponível nos aplicativos para Android e iOS.

Toque na sua foto de perfil (no celular) ou no ícone com três pontos (no desktop) e entre em “Configurações e Privacidade”.

Vá até “Privacidade e Segurança”.

Vá até “Grok”

Desmarque a opção “Permitir que seus posts e suas interações, entradas e resultados do Grok sejam usados para treinamento e ajuste fino”.

Outra maneira é clicar diretamente no link que leva à página da opção, caso você já esteja logado na rede.

Vale notar que a política do Grok fala em posts públicos. Ao que tudo indica, publicações de contas privadas estão a salvo, bem como mensagens.

Meta foi impedida de treinar IA com dados de usuários

Como observa o site The Verge, não está claro desde quando esta opção existe. Uma versão arquivada de maio da página do X sobre o Grok já explicava os passos para desativar o uso dos posts para treinamento.

Mesmo assim, o assunto repercutiu entre usuários nesta quinta-feira (25). Uma das publicações com o tema tinha, na tarde desta sexta, mais de 5 milhões de visualizações e mais de 60 mil compartilhamentos.

Twitter just activated a setting by default for everyone that gives them the right to use your data to train grok. They never announced it. You can disable this using the web but it’s hidden. You can’t disable using the mobile appDirect link: https://t.co/lvinBlQoHC pic.twitter.com/LqiO0tyvZG— Kimmy Bestie of Bunzy, Co-CEO Execubetch (@EasyBakedOven) July 26, 2024

O caso lembra o da Meta: em junho, a empresa mudou sua política de privacidade para também treinar suas ferramentas de inteligência artificial com dados dos usuários. O processo para se opor ao uso era mais longo, envolvendo até dez passos, no smartphone.

Após críticas dos próprios usuários de Facebook e Instagram, a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta de usar essas informações. Posteriormente, a própria empresa suspendeu suas ferramentas de inteligência artificial generativa no Brasil.

Até agora, o Instituto de Defesa de Consumidores publicou um posicionamento sobre o X. Anteriormente, a entidade acionou ANPD, Secretaria Nacional do Consumidor (Senacon) e Conselho Administrativo de Defesa Econômica (Cade) contra a Meta.

Com informações: The Verge, Windows Central
X/Twitter vai treinar Grok com dados de usuários; saiba como desativar

X/Twitter vai treinar Grok com dados de usuários; saiba como desativar
Fonte: Tecnoblog

Meta pede ao Cade o fim da investigação contra a Meta AI

Meta pede ao Cade o fim da investigação contra a Meta AI

Meta também é investigada por ANPD e Senacon (Ilustração: Vitor Pádua/Tecnoblog)

A Meta enviou uma resposta ao Conselho Administrativo de Defesa Econômica (Cade) pedindo o fim do procedimento preparatório contra ela. A investigação foi aberta após pedido do Instituto de Defesa de Consumidores (Idec), devido ao uso de dados pessoais para treinamento de inteligência artificial. As advogadas que representam a empresa dizem que as alegações são infundadas.

O Idec apresentou pedidos à ANPD, ao Cade e à Secretaria Nacional do Consumidor (Senacon). Vale lembrar que o Cade é o órgão que cuida das questões de concorrência no Brasil. As questões de privacidade são tratadas majoritariamente pela Autoridade Nacional de Proteção de Dados (ANPD). Ela proibiu o uso dos dados de brasileiros para treinamento da IA.

Mark Zuckberg apresenta Meta AI, em evento realizado em setembro de 2023 (Imagem: Reprodução/Meta)

Na quarta-feira da semana passada (17), a própria Meta suspendeu todas as suas ferramentas de IA generativa. Com isso, a Meta AI não chegou ao Brasil na última terça (23), quando foi lançada em mais 22 países.

Meta aponta “contexto dinâmico” na IA

Na notificação enviada ao Cade, os argumentos do Instituto vão na linha de que o treinamento da IA com dados de usuários criaria um problema de concorrência. A Meta discorda e considera que o Idec não definiu adequadamente qual seria este mercado em que ela teria domínio.

“É importante notar que as alegações do Idec fornecem tão poucas informações que qualquer tentativa de contestar os argumentos é limitada pelo simples fato de que eles praticamente inexistem”, escrevem as advogadas.

No documento apresentado ao Cade, a Meta argumenta que o contexto de desenvolvimento da IA é “extremamente dinâmico”, devido a “entradas frequentes de vários players com diferentes portes, incluindo big techs e startups”. A companhia defende que sua IA tem código aberto, o que pode incentivar outras empresas a desenvolverem produtos deste tipo. Por isso, a Meta nega que sua posição seja dominante no mercado.

O documento também busca refutar a tese de que nenhuma empresa conseguiria competir com a Meta, pelo simples fato de ela ter acesso a mais dados pessoais do que suas concorrentes.

A gigante das redes sociais aponta o ChatGPT como “mais notório large language model (LLM) do mundo” e sua desenvolvedora, a OpenAI, como prova de que é possível competir sem ter os dados dos usuários de Facebook e Instagram. A Meta também indica a startup francesa Mistral e a empresa sul-coreana Naver como exemplos de que não há domínio de mercado.
Meta pede ao Cade o fim da investigação contra a Meta AI

Meta pede ao Cade o fim da investigação contra a Meta AI
Fonte: Tecnoblog

Proton Scribe é uma IA que escreve e-mails mantendo privacidade do usuário

Proton Scribe é uma IA que escreve e-mails mantendo privacidade do usuário

Proton Scribe é uma IA que escreve e-mails mantendo a privacidade do usuário (imagem: divulgação/Proton)

A Proton anunciou mais um serviço, desta vez, um assistente de escrita baseado em inteligência artificial (IA). Chamada de Proton Scribe, a novidade é capaz de gerar textos, mas sem abrir mão do aspecto da privacidade do usuário.

Nesta fase inicial, o Proton Scribe foi integrado somente ao Proton Mail, o que significa que ele só vai funcionar para redação de e-mails. É possível redigir ou resumir mensagens, bem como fazer revisões de ortografia e gramática com a ferramenta.

Como funciona a proteção de privacidade

De acordo com a Proton, a proteção da privacidade do usuário começa com o não uso de dados das caixas de entrada. Além disso, o Proton Scribe segue uma política de nunca armazenar os dados digitados pelos usuários, ou compartilhá-los com terceiros.

Depois vem o processamento local da geração de texto, de modo que os dados usados para essa tarefa nunca saiam do dispositivo do usuário.

O Proton Scribe também pode ser executado a partir dos servidores do serviço, mas como configuração opcional. A Proton afirma que esses servidores são seguros e não guardam registros de informações confidenciais.

Para completar, a Proton afirma que o Scribe é baseado em modelos de inteligência artificial de código aberto. A própria ferramenta também tem código aberto, o que permite a realização de auditorias independentes de segurança e privacidade, enfatiza a organização.

Proton Scribe funciona de modo local ou via servidor (imagem: divulgação/Proton)

Andy Yen, fundador da Proton, comentou o propósito do Scribe:

Um dos motivos pelos quais a privacidade não foi mais colocada como prioridade com os avanços na tecnologia é porque desenvolver tecnologias de um modo privado é mais difícil e caro.

Porém, é fundamental fazermos isso pois, caso contrário, as consequências recairiam sobre os usuários. A história mostrou que, se tiver que escolher entre privacidade e produtividade, a produtividade normalmente ganha.

Desenvolver a privacidade para o futuro requer eliminar a necessidade de fazer essa escolha. Com o Proton Scribe, optamos por um caminho mais difícil, mas ele é o único que permite a combinação de privacidade e produtividade.

Andy Yen, fundador da Proton

Disponibilidade do Proton Scribe

Se a ferramenta funciona a contento? Só testando para termos certeza. Contudo, o Proton Scribe está sendo liberado para somente assinantes do Proton Business Suite nesta fase inicial, que custa a partir de US$ 2,99 mensais por usuário.

A novidade também está chegando para usuários dos planos gratuitos Visionary e Lifetime.
Proton Scribe é uma IA que escreve e-mails mantendo privacidade do usuário

Proton Scribe é uma IA que escreve e-mails mantendo privacidade do usuário
Fonte: Tecnoblog