Category: Inteligência Artificial

Robô LuzIA para WhatsApp passa de 2 milhões de usuários no Brasil

Robô LuzIA para WhatsApp passa de 2 milhões de usuários no Brasil

A inteligência artificial LuzIA foi lançada em julho no Brasil e já alcançou uma marca expressiva: mais de 2 milhões de usuários. Tal número coloca o país como o que mais interage com o chatbot no WhatsApp e no Telegram. Até o momento, mais de 200 mil áudios já foram transcritos por ela, e mais de 42 milhões de perguntas foram respondidas.

LuzIA no WhatsApp (Imagem: Reprodução/LuzIA)

Segundo os dados coletados pela plataforma, entre 19 de julho e 6 de agosto, mais de 42 milhões de perguntas foram enviadas por brasileiros à LuzIA. Além disso, ela gerou mais de 700 mil imagens.

Um dos recursos mais interessantes da IA é transcrever áudios. Todo mundo já deve ter passado pela situação de receber uma mensagem de voz quando não tinha como ouvir.

Até 6 de agosto, mais de 200 mil áudios foram encaminhados para a LuzIA. Segundo a empresa, isso dá quase 7 milhões de segundos ou 80 dias ininterruptos de mensagens de voz.

“Nós já estávamos otimistas com o anúncio para o Brasil porque sabemos o quanto o WhatsApp é popular por aqui, mas superou nossas expectativas”, diz Alvaro Higes, criador e CEO da LuzIA.

São Paulo lidera em número de usuários da LuzIA

A empresa criadora da LuzIA também divulgou os DDDs que mais entram em contato com a assistente, o que dá uma ideia da distribuição geográfica dos usuários.

11 (Região Metropolitana de São Paulo): 260 mil usuários

21 (Região Metropolitana do Rio de Janeiro): 130 mil usuários

31 (Região Metropolitana de Belo Horizonte): 75 mil usuários

19 (Região de Campinas): 57 mil usuários

51 (Região Metropolitana de Porto Alegre): 52 mil usuários

LuzIA não tem cadastro e funciona pelo WhatsApp ou Telegram

A LuzIA é uma ferramenta que usa inteligência artificial para responder a perguntas, transcrever áudios e gerar imagens. Ela tem como base GPT-3.5 e Whisper, da OpenAI, e Stable Diffusion, da Stability AI. Criada na Espanha, ela está disponível em mais de 40 países.

Seu grande diferencial é funcionar por aplicativos de mensagem. Basta salvar o contato do chatbot e fazer as solicitações por WhatsApp ou Telegram. As respostas vêm por lá mesmo, sem a necessidade de acessar um site ou instalar um app.

Além disso, como algumas operadoras oferecem WhatsApp ilimitado, dá para usar a LuzIA sem gastar dados da franquia.

Para acessar a inteligência artificial, basta enviar uma mensagem para (11) 97255-3036 via WhatsApp ou Telegram, ou acessar o site da IA e escolher a plataforma desejada. Não existe cadastro, e os dados são tratados de forma anônima.
Robô LuzIA para WhatsApp passa de 2 milhões de usuários no Brasil

Robô LuzIA para WhatsApp passa de 2 milhões de usuários no Brasil
Fonte: Tecnoblog

YouTube começa testes de descrições de vídeos criadas por IA

YouTube começa testes de descrições de vídeos criadas por IA

O Google está testando um recurso para criação de descrição de vídeos no YouTube que será feita por inteligência artificial. A novidade foi revelada pela empresa na última segunda-feira (31) através da página de suporte da plataforma de vídeos. O recurso será mostrado na página de busca e na página de exibição de vídeos.

YouTube inicia testes de descrições de vídeos feitas por IA (Imagem: Vitor Pádua/Tecnoblog)

Como explica o Google em seu site, os testes estão disponíveis para um número limitado de vídeos e de espectadores. A descrição feita por IA, por enquanto, funcionará apenas com produções na língua inglesa.

Google não divulgou sobre identificação de descrição feita por IA

A publicação do Google na página de suporte do YouTube não traz detalhes visuais do recurso — mostrando como será a identificação do sumário feito por inteligência artificial. Todavia, a empresa informou que essa descrição automática será mostrada na página de exibição do vídeo e durante a busca.

Por estar disponível somente para conteúdos na língua inglesa, é especulado que apenas contas baseadas em países cuja língua oficial seja inglês estejam participando do teste. O Tecnoblog tentou testar o recurso usando uma VPN e acessando os principais canais de língua inglesa, mas não conseguimos visualizar nenhuma indicação do teste.

Página de buscas será um dos lugares em que a descrição por IA será mostrada (Imagem: Reprodução/Tecnoblog)

É natural que ao criar um recurso em que a descrição será feita por IA, o Google adicione uma etiqueta ou alguma identificação para informar ao usuário que o sumário do vídeo não foi feito por um humano.

No site, o Google pede que as contas participantes passem feedback sobre o recurso caso “esbarrem” com o texto feito pela IA. A empresa afirma que esse recurso não substituirá a descrição feita pelo criador — que pode anunciar alguma publicidade no sumário.

Com informações: Android Police e The Verge
YouTube começa testes de descrições de vídeos criadas por IA

YouTube começa testes de descrições de vídeos criadas por IA
Fonte: Tecnoblog

IA do Google ensina tarefas para robô sem precisar de instruções básicas

IA do Google ensina tarefas para robô sem precisar de instruções básicas

A inteligência artificial vai muito além do ChatGPT, e o Google deu uma prova disso nesta sexta-feira (28). A empresa apresentou seu modelo de aprendizagem Robotic Transformer 2 (ou RT-2). Graças a ele, robôs conseguem executar tarefas complexas, sem que seja necessário ensiná-los os movimentos básicos envolvidos.

Braço robótico usado pelo Google para demonstrar o RT-2 (Imagem: Divulgação/Google)

Segundo a DeepMind, divisão de robótica do Google, com o RT-2, um usuário poderia dar o comando “jogue o lixo fora” a um robô, mesmo que ele não tenha sido treinado para essa tarefa específica.

A máquina conseguiria identificar o que é lixo — seja um pacote de batatinha vazio ou uma casca de banana — e o que é jogar fora.

Pode parecer bobo, mas não é. Um desafio do trabalho com robôs é a necessidade de ensinar movimentos básicos, como pegar um objeto, girá-lo, mover o braço, e assim por diante.

O RT-2, por outro lado, passou por um treinamento com uma grande quantidade de dados da web. Isso permite a ele ser capaz de fazer abstrações — entender que diferentes tipos de objeto podem ser lixo, por exemplo.

Os pesquisadores afirmam que, em testes realizados com um braço robótico em um cenário de cozinha, o modelo foi capaz de entender que objeto poderia ser improvisado como martelo (uma pedra) e escolher qual era a bebida mais apropriada para uma pessoa cansada (uma lata de energético).

Algumas tarefas possíveis com o RT-2 (Imagem: Divulgação/Google)

Nem tudo é perfeito, porém. A reportagem do jornal The New York Times viu uma demonstração ao vivo do robô e ele errou o sabor de refrigerantes e a cor de algumas frutas.

RT-2 se beneficiou da mesma tecnologia do Bard e ChatGPT

Eu abri este texto falando que a inteligência artificial é muito mais que o ChatGPT, mas existe uma relação entre ele e o modelo usado nos robôs.

O ChatGPT, o Bard e outros chatbots capazes de entender linguagem natural e responder perguntas complexas usam como base uma tecnologia chamada modelo de linguagem de larga escala, ou LLM, na sigla em inglês.

As pesquisas com LLMs foram determinantes para desenvolver o RT-2 e torná-lo capaz de entender instruções que não foram predeterminadas. O modelo é capaz até mesmo de obedecer comandos em outras línguas além de inglês — assim como os chatbots.

Para Ken Goldberg, professor de robótica da Universidade da Califórnia em Berkeley, o uso dos modelos de linguagem nas máquinas foi suficiente para dar a elas alguma capacidade de raciocínio e improviso. “Isso é muito animador”, avaliou o pesquisador em entrevista ao NYT.

Com informações: TechCrunch, The Verge, The New York Times
IA do Google ensina tarefas para robô sem precisar de instruções básicas

IA do Google ensina tarefas para robô sem precisar de instruções básicas
Fonte: Tecnoblog

E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?

No dia 18 de julho, pesquisadores da Universidade de Stanford divulgaram um artigo sobre o desempenho do ChatGPT. Numa avaliação de como a ferramenta se saía em certas categorias de prompts, a conclusão foi que o chatbot havia piorado, mesmo após a atualização do modelo GPT 3.5 para o GPT-4.

O ChatGPT pode ser usado para tudo? (Imagem: Vitor Pádua / Tecnoblog)

A descoberta surpreende. Afinal, a lógica é que uma inteligência artificial está sempre aprendendo, e, portanto, se aprimorando. Não há como saber ao certo o que provocou a piora, mas o ponto do estudo é demonstrar a necessidade de permanecer atento ao desenvolvimento dos grandes modelos de linguagem (large language models, ou LLMs). Não dá para supor que estarão sempre evoluindo.

Os achados dos pesquisadores ajudam a ilustrar os possíveis problemas do uso indiscriminado de ferramentas como o ChatGPT. Parece haver um descompasso entre a adoção dos LLMs e o entendimento de como eles funcionam. Mesmo com alucinações e vieses, a IA é muitas vezes é percebida como mágica, o que gera riscos para seus usuários.

Não confie demais

Já enfatizamos aqui no Tecnoblog que o ChatGPT mente que nem sente. Não custa lembrar: modelos de linguagem desse tipo trabalham com previsão de palavras, sendo muitíssimo competentes em calcular a probabilidade do próximo item numa frase. Você apresenta uma pergunta, e, com isso, um contexto; a ferramenta prevê as melhores palavras para responder o que você pediu.

Ou seja: o ChatGPT chuta, e é excelente nisso. Mesmo quando acerta, isso se deve a sua capacidade de elencar as palavras mais prováveis num determinado contexto. É para isso que serve todo o material de treinamento do modelo: torná-lo capaz de prever melhor.

É justamente por ser um mecanismo de previsão que há constantes equívocos em suas respostas. Ele não está consultando um banco de dados com todo o conhecimento existente, e sim tentando acertar o próximo termo. Nem sempre consegue. Daí surgem as chamadas alucinações, fatos e fontes totalmente inventados porque seria provável, naquele contexto, dizer algo daquela natureza.

Em teste, ChatGPT criou lei sobre o uso de celulares nas escolas catarinenses (Imagem: Reprodução/Tecnoblog)

Diante disso, fica claro por que é tão problemático tratar LLMs como gurus. Você já deve ter visto, no Twitter, perfis ensinando a ganhar dinheiro como ChatGPT. Alguns pedem ideias de negócio à ferramenta; outros, dicas de investimento. Outros ensinam como pedir ao ChatGPT criar o seu treino na academia, dispensando o trabalho de um personal trainer.

O problema, obviamente, é que a ferramenta não foi feita para isso, e as chances de você receber uma informação ou “dica” errada são grandes. Pode ser que um dia tenhamos inteligências artificiais capacitadas para esses fins, mas esse dia não é hoje. O ChatGPT nem sabe do que está falando.

Mesmo com toda a atenção, alguma coisa passa

Isto não impede, é claro, que experimentos sejam feitos com os textos gerados pela ferramenta. Vários veículos jornalísticos ao redor do mundo já anunciaram o uso de inteligência artificial na criação de notícias, por exemplo, apesar dos riscos.

O caso do site CNET foi bastante comentado no início do ano, com textos gerados por IA contendo erros de cálculo; mais recentemente, o Gizmodo também virou notícia por apresentar conteúdo equivocado num texto que listava os filmes de Star Wars em ordem cronológica (a lista, criada por IA, estava errada).

O uso de LLMs no contexto do jornalismo é motivo de disputas. Por mais que o discurso de muitos executivos aponte para o uso da ferramenta como um auxílio para jornalistas, muitos profissionais da área acreditam que se trata de um convite para uma lógica de produtividade baseada em quantidade, não qualidade.

Falando em quantidade, o número de sites com desinformação gerada inteiramente por IA já está na casa das centenas, de acordo com levantamento da organização Newsguard. O objetivo parece ser gerar textos que obtenham um bom ranqueamento no Google. Resultado: mais cliques, e, portanto, mas renda com anúncios.

(Imagem: Unsplash / Jonathan Kemper)

Atores mal-intencionados certamente verão em ferramentas como o ChatGPT um atalho para criar mais e mais conteúdo problemático. Mas o ponto é que, mesmo sem uma intenção escusa por parte do usuário, textos gerados por LLMs frequentemente contém erros factuais e informações inventadas.

E, como discutimos no Tecnocast 297, mesmo os profissionais mais atentos deixarão passar algo. É inevitável.

O jeito é a IA treinar a IA?

Mas há um fato: criar conteúdo via ChatGPT é muito barato. Assim, é muito provável que vejamos mais e mais conteúdo nascido de ferramentas de LLM, e não de seres humanos, se espalhando pela internet.

Isso poderia gerar dinâmicas curiosas. Afinal, inteligências artificiais são treinadas com material encontrado na internet. Num mundo em que uma parcela significativa dos textos na web foram criados por inteligência artificial, os modelos de linguagem acabariam sendo alimentados por material que eles próprios originaram.

Alguns pesquisadores apontam que este fenômeno causaria o chamado colapso de modelo (model collapse). Ao usar conteúdo autogerados para aprender mais, estes modelos passariam a produzir material menos útil para os usuários. Ou seja: o uso indiscriminado das ferramentas de IA pode prejudicar até mesmo os próprios modelos.

Uma forma de evitar o colapso é garantir que os dados com os quais os modelos são alimentados foram 100% criados por humanos. Isso envolveria pagar por acesso a livros, artigos e notícias, de modo a obter material de alta qualidade e de origem comprovada.

Inteligência artificial (Imagem: Pixabay/Geralt)

Porém, há um obstáculo: dinheiro. Conteúdo gerado por seres humanos é caro, e as empresas certamente prefeririam economizar. Por isso, já se fala de treinamento com dados sintéticos. É quando uma IA cria material especificamente para treinamento de LLMs. Já há, inclusive, startups vendendo esta tecnologia como serviço, como aponta esta reportagem do Finantial Times.

Como podemos ver, há muita coisa em jogo no desenvolvimento dos modelos de linguagem. Por enquanto, o melhor é prosseguir com cautela. Ou seja: nada de pedir para o ChatGPT fazer a sua série na academia.
E se faltar conteúdo humano para treinar a inteligência artificial?

E se faltar conteúdo humano para treinar a inteligência artificial?
Fonte: Tecnoblog

Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA

Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA

O desenvolvimento da inteligência artificial causa preocupação em muita gente. Pensando nisso, Google, Microsoft, OpenAI e Anthropic criaram o Frontier Model Forum, que visa garantir o desenvolvimento seguro e responsável de modelos de IA. A iniciativa, porém, é vista com ceticismo: especialistas consideram que pode ser só uma forma de evitar a regulamentação do setor.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Entre os objetivos do grupo, estão:

avançar na pesquisa de segurança de IA para promover desenvolvimento responsável de modelos;

identificar as melhores práticas para desenvolvimento e implementação;

colaborar com formuladores de políticas públicas, pesquisadores, sociedade civil e empresas para compartilhar conhecimentos sobre riscos de segurança;

apoiar iniciativas para desenvolver aplicações para grandes desafios da sociedade, como mudanças climáticas, ameaças cibernéticas e prevenção do câncer.

As quatro empresas estão entre os principais nomes da inteligência artificial generativa.

A OpenAI é responsável pelo ChatGPT.

A Microsoft colocou tecnologias do tipo em produtos como Bing, Edge e Microsoft 365.

O Google apresentou seu chatbot, chamado Bard.

A Anthropic, formada por ex-membros da OpenAI, trabalha no seu modelo, chamado Claude.

O grupo poderá aceitar novos membros, mas os critérios são bastante restritos. A participação é limitada às empresas que constroem “modelos de aprendizagem de máquina em larga escala que excedam as capacidades atualmente presentes nos modelos mais avançados”.

Como nota o Financial Times, isso sugere que o grupo não está de olho nos problemas atuais da inteligência artificial, como violação de direitos autorais, riscos de privacidade e desemprego causado substituição de mão de obra humana.

Modelos mais avançados podem trazer novos problemas, e é nisso que o Frontier Model Forum está pensando.

IA está na mira de novas regulações

O tema da inteligência artificial atrai a atenção de autoridades. Nos EUA, o presidente Joe Biden prometeu uma ação executiva para promover “inovação responsável”. Já a Comissão Federal de Comércio (FTC) está investigando a OpenAI por possíveis práticas injustas ou enganosas envolvendo proteção de dados.

Recentemente, as quatro empresas do Frontier Model Forum, a Meta, a Inflection e a Amazon concordaram em seguir as diretrizes da Casa Branca para IA.

A União Europeia tem conversas avançadas para aprovar um conjunto de regras para a IA, visando promover direitos e valores como supervisão humana, transparência, não-discriminação e bem-estar social.

No Brasil, o tema está em discussão desde 2020 no Congresso Nacional, com o Marco da Inteligência Artificial. Em 2023, um novo texto foi proposto.

Em entrevista ao Financial Times, Emily Bender, pesquisadora da Universidade de Washington, avalia a iniciativa do Frontier Model Forum é uma forma de “evitar regulações” e tentar “reivindicar a possibilidade de autorregulação”.

Durante palestras e debates nos últimos meses, Sam Altman, CEO e um dos fundadores da OpenAI, tem defendido que não é o momento de regular a IA, porque isso prejudicaria a inovação.

Para ele, isso deve ser feito apenas quando surgir um modelo tão inteligente quanto a civilização humana. Mesmo neste caso, Altman considera que o mais adequado seria a criação de uma agência global, como a Agência Internacional de Energia Atômica, ligada à Organização das Nações Unidas (ONU).

Com informações: The Financial Times, The Washington Post, TechCrunch
Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA

Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA
Fonte: Tecnoblog

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

Alphabet, Amazon, Apple e Microsoft são algumas das empresas cujo valor está estimado a partir de US$ 1 trilhão. Em junho, uma nova companhia entrou nesse grupo: a Nvidia. É a primeira vez que uma empresa do ramo de chips alcança este patamar.

Todo mundo quer comprar da Nvidia (Imagem: Vitor Pádua / Tecnoblog)

Para quem não está tão inteirado das movimentações da empresa, a informação pode gerar surpresa. Afinal, a Nvidia não é aquela que faz as placas de vídeo para o público gamer?

E a resposta é sim: no setor de chips gráficos dedicados, a Nvidia é dominante. Mas foi-se o tempo que esta era o único negócio da companhia presidida por Jensen Huang. A utilidade das GPUs em diversas áreas impulsionou a Nvidia para novas e lucrativas direções.

Games, cripto e IA

A Nvidia surgiu em 1993. O primeiro chip, NV1, chegou ao mercado dois anos depois, mas o sucesso mesmo veio em 1997, com o lançamento do RIVA 128. Mas talvez seu produto mais conhecido seja a linha GeForce, a primeira das GPUs modernas, introduzida em 1999. No mesmo ano, a empresa fez sua primeira oferta pública de ações.

O foco da Nvidia, nesses primeiros anos, estava nos games. Parcerias com Sega e Microsoft marcaram a trajetória da empresa — embora para a Sega as coisas não tenham saído como o esperado… ouça o Tecnocast 296 para entender essa história.

Mas a capacidade das GPUs vai muito além da renderização de gráficos, o que abriu uma nova gama de oportunidades. Aqui, vale uma explicação técnica.

Diferente da CPU, que processa tarefas de forma sequencial, a GPU tem como característica o processamento paralelo. Na prática, isso significa que ela consegue realizar várias instruções ao mesmo tempo. Isso é possível graças ao grande número de núcleos presente nas GPUs modernas. Quanto mais núcleos, melhor o desempenho.

Placa de vídeo Asus com GPU Nvidia GeForce RTX 4070 Ti (imagem: divulgação/Asus)

GPUs com muitos núcleos, portanto, são excelentes para aplicações que necessitam de alto volume de processamento. Um exemplo é a mineração de criptomoedas. Nos períodos de maior atividade dos mineradores, era até difícil encontrar chips no mercado, o que gerou disparos no preço.

Outro contexto muito importante do uso das GPUs é no machine learning, dentro do processo de treinamento de inteligências artificiais.

Vale destacar: a Nvidia não desenvolveu suas GPUs com estas aplicações em mente; elas foram descobertas ao longo do caminho. Chips poderosos eram necessários, e a Nvidia detinha a melhor tecnologia da área. Foi como somar dois e dois.

A empresa soube aproveitar esses novos desdobramentos. Hoje, colhe os frutos.

A Nvidia vende para quem quiser comprar

Segundo Jensen Huang, estamos atravessando o “momento iPhone da IA”. O ChatGPT teria provocado o mesmo agito no mercado que o smartphone da Apple provocou quando apareceu, em 2007. Para milhões de pessoas, foi o primeiro contato com uma inteligência artificial capaz de coisas extraordinárias.

Poucas empresas estão em melhor posição para aproveitar este momento do que a Nvidia. Suas GPUs são usadas para treinamento de inteligências artificiais há anos. Na parceria entre Microsoft e OpenAI para criação de produtos de IA, há “milhares” de GPUs já otimizadas para este fim.

Assim como no auge da mineração de criptomoedas, conseguir chips gráficos de alta performance no momento pode ser tarefa difícil. Elon Musk, por exemplo, comentou está mais fácil encontrar drogas do que GPUs atualmente. Há alguns meses, descobriu-se que o dono do Twitter também investia em IA. Como? Bem, ele comprou milhares de chips da Nvidia.

Intel e AMD não estão paradas, é claro, e tentam emplacar seus chips voltados para inteligência artificial. Porém, a dianteira da Nvidia é muito consolidada. Trata-se de um domínio construído ao longo de anos, e é improvável que as competidoras consigam atacá-lo num futuro próximo.

Jensen Huang, CEO da Nvidia

Assim, não é uma surpresa que o mercado esteja tão animado com a Nvidia. As ações da empresa subiram 181% no acumulado do ano; só no atual trimestre fiscal, a expectativa é de US$ 11 bilhões em vendas, um recorde para a empresa.

Além disso, há o posicionamento peculiar da companhia. Google e Microsoft, por exemplo, são concorrentes em áreas como busca e IA generativa. O objetivo de ambas é criar produtos melhores, obter vantagens competitivas e conquistar mais usuários. O escopo da Nvidia é outro: ela é quem fornece o poder computacional para quem estiver interessado. Seja o Google, a Microsoft, Elon Musk ou quem quer que seja.

Portanto, é seguro dizer que a Nvidia não tem favoritos na batalha da inteligência artificial. Ela torce mesmo é pela briga.
As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga

As gigantes lutam pelo futuro da IA, e a Nvidia torce pela briga
Fonte: Tecnoblog

Gigantes da inteligência artificial se comprometem com regras do governo dos EUA

Gigantes da inteligência artificial se comprometem com regras do governo dos EUA

As grandes empresas de inteligência artificial anunciaram o comprometimento de seguir as diretrizes do governo americano sobre o desenvolvimento seguro de IAs. Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI aprovaram as medidas da Casa Branca nesta sexta-feira (21). Com esse acordo, as companhias seguirão diretrizes de segurança para evitar riscos na evolução das IAs.

Principais empresas de IA na atualidade aprovaram diretrizes sugeridas pelo governo americano (Imagem: Vitor Pádua / Tecnoblog)

O anúncio do acordo entre as partes (governo e empresas) foi publicado no site oficial da Casa Branca. Segundo o texto, o comprometimento das empresas foi voluntário. O governo americano informa ainda que está em contato com outras nações, incluindo o Brasil, para ampliar o número de empresas e governos que apoiam as diretrizes de segurança para o desenvolvimento de IAs.

Medidas para o desenvolvimento seguro de IAs

No total, foram apresentadas oito diretrizes (ou medidas) para o desenvolvimento seguro de inteligências artificiais. Essas medidas são apenas o primeiro passo da Casa Branca antes de criar uma proposta de regulamentação. Iremos resumi-las de acordo com as suas similaridades.

Garantir uma IA segura antes do lançamento: Neste ponto, as empresas se comprometem a permitir que terceiros realizem testes com suas inteligências artificiais. Esses testes verificarão os riscos da IA expor dados sobre biossegurança e cibersegurança.As empresas também compartilharão informações com governos, indústria, sociedade e academia, além de promover práticas positivas sobre segurança, compartilhar técnicas e tentativas de “driblar” as medidas de segurança das IAs — como aquelas que impedem om ChatGPT de escrever vírus.

OpenAI, criadora do ChatGPT, é uma das empresas que aceitou as diretrizes da Casa Branca (Imagem: Vitor Pádua / Tecnoblog)

“Segurança em primeiro lugar”: Basicamente um complemento do ponto anterior, essa diretriz exige que as empresas só lance seus modelos após a garantia de que a IA é segura. As companhias também facilitarão que terceiros descubram e reportem vulnerabilidades. A IA necessitará ainda de um “mecanismo robusto” de comunicação de falha.

“Conquistar a confiança do público”: Aqui, a proposta do governo americano é que as empresas criem ferramentas que permitam identificar se um conteúdo é gerado por IA; divulguem as capacidades das suas IAs (que pode evitar os casos de acusações falsas de plágio pelo ChatGPT); priorizem pesquisas no riscos da tecnologia sobre a sociedade; evitem conteúdos prejudiciais e discriminatórios e protejam a privacidade.Há também uma exigência para que as empresas desenvolvam sistemas avançados de IA para resolver os principais desafios da sociedade, como cura de cânceres e mitigação dos efeitos das mudanças climáticas.

Com informações: New York Times e Google
Gigantes da inteligência artificial se comprometem com regras do governo dos EUA

Gigantes da inteligência artificial se comprometem com regras do governo dos EUA
Fonte: Tecnoblog

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

A OpenAI anunciou na última quinta-feira (20) a ferramenta de instruções padrões para o ChatGPT. Ainda em fase beta e disponível apenas para os assinantes do ChatGPT Plus, o recurso deve facilitar o uso da IA, permitindo que os usuários criem uma “estrutura” para que a inteligência artificial responda um comando de modo específico. A OpenAI espera lançar o recurso definitivamente e para todos os usuários nas próximas semanas.

ChatGPT deve dar respostas mais objetivas com nova funcionalidade (Imagem: Vitor Pádua / Tecnoblog)

O exemplo dado pela OpenAI e que também usaremos aqui é o seguinte: um professor da terceira série registrará na sua conta a sua profissão, permitindo que ele não repita que é um professor toda vez que enviar um prompt para o ChatGPT.

Além disso, o usuário pode definir como deseja receber a resposta. Por exemplo, o professor imaginário citado anteriormente pode preferir uma tabela com coluna de lado positivo e negativo de um determinado assunto que será apresentado em sala.

Em outra situação, a OpenAI mostra que um programador pode pedir que a resposta do ChatGPT seja direta, sem explicação sobre como funciona o código e que ele busque pela solução mais eficiente. E neste caso, o programador ainda pode adicionar com qual linguagem ele trabalha. Assim, não precisa escrever “escreva um código em Python” ou “escreva um código GoLang”.

Com instruções predefinidas para responder na linguagem GoLang, ChatGPT entrega código sem precisar que o usuário definida a linguagem (Imagem: Reprodução/Tecnoblog)

Novidade da OpenAI é bem invasiva e a empresa “sabe disso”

Informar a sua profissão ou o tamanho da sua família e onde você mora (esse é um dos exemplos no site da OpenAI) é bem invasivo do ponto de vista de privacidade. Ciente disso, a OpenAI permite que o usuário desative o uso das informações das instruções padrões para melhorar o desempenho do ChatGPT.

A empresa afirma que os dados pessoais que facilitem a identificação de alguém são removidos quando usado para treinar a IA. Todavia, o problema é se acontecer um vazamento, como já sofreu a OpenAI duas vezes: uma por erro próprio e a outra na qual ela jogou a culpa nos usuários.

Com informações: OpenAI
OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT

OpenAI libera ferramenta de instruções predefinidas para respostas do ChatGPT
Fonte: Tecnoblog

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

Um novo chatbot com inteligência artificial está chegando ao Brasil, e vai “morar” em dois apps bastante usados no país: WhatsApp e Telegram. Chamada LuzIA, a assistente tem poderes parecidos com os do ChatGPT, além de uma utilidade que vai interessar muita gente: ela transcreve áudios.

LuzIA no WhatsApp (Imagem: Reprodução/LuzIA)

A LuzIA faz muito daquilo que tornou o ChatGPT famoso nos últimos meses: ela pode ajudar a redigir mensagens, dar dicas de receitas, tirar dúvidas sobre conhecimentos gerais, sugerir viagens, livros, filmes e séries, e muitas outras coisas nessa linha.

Ela, porém, tem uma vantagem que vai deixar muita gente interessada. A LuzIA transcreve áudios. Basta encaminhar uma mensagem de voz para a inteligência artificial — ela a transcreve em alguns segundos.

Em conversa com o Tecnoblog, Álvaro Higes, CEO da LuzIA, destaca que o recurso vai além da praticidade: ele também ajuda na acessibilidade, facilitando a comunicação de pessoas com deficiência auditiva.

Outro diferencial em relação ao ChatGPT é a capacidade de criar imagens. Basta escrever “imagina” e a descrição desejada para receber uma figura gerada pela inteligência artificial.

IA via WhatsApp

A LuzIA não tem aplicativo. Para utilizá-la, basta enviar mensagens a um número de telefone, usando WhatsApp ou Telegram.

A empresa aponta que usar o WhatsApp tem também a vantagem de aproveitar os pacotes de dados ilimitados que as operadoras costumam oferecer para o mensageiro.

Desenvolvida na Espanha e lançada em março de 2023, a LuzIA está disponível em mais de 40 países. Para vir ao Brasil, ela ganhou um número de telefone local, com o código do país: +55 11 97255-3036.

Outra forma é acessar o site da LuzIA e tocar nos botões de WhatsApp ou Telegram para iniciar a conversa no mensageiro correspondente.

LuzIA usa GPT-3.5 e Stable Diffusion

Higes explica que o robô é “agnóstico” em relação aos modelos usados como base. Isso quer dizer que ela pode trocar de fornecedor, caso apareça uma solução melhor no mercado.

Atualmente, a LuzIA usa o GPT-3.5 para entender perguntas e gerar respostas em texto, e o Whisper para reconhecer fala e transcrever áudio. As duas soluções são da OpenAI, responsável pelo ChatGPT.

Para criar imagens, porém, a LuzIA usa o Stable Diffusion, da Stability AI, deixando de lado o Dall-E da OpenAI.

Sem cadastro e sem perfil

Em relação à privacidade, Higes explica que a LuzIA não exige cadastro, nem cria perfis dos usuários. “A única informação que ela armazena é o número, para que ela possa saber para quem enviar a resposta”, comenta.

Além disso, as conversas são “zeradas” após algum tempo. Isso quer dizer que não adianta continuar um bate-papo com a LuzIA depois de algumas horas — você vai ter que explicar tudo de novo.

A empresa fez uma parceria com a Meta para que seu número seja verificado e tenha o selo verde no WhatsApp, “para que o usuário possa ter certeza que está falando com a LuzIA e não caindo em um golpe”, comenta o CEO.

Além disso, a assistente traz o já habitual aviso de que inteligências artificiais podem alucinar na hora de gerar respostas.

A LuzIA é gratuita e, por enquanto, não há nenhum plano para cobrar pelo acesso a ela. Higes diz que, em um primeiro momento, a ideia é a ver como a base de usuários vai se comportar para só depois pensar em um modelo de negócios para sustentar a assistente.
LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios

LuzIA é um chatbot com IA que funciona pelo WhatsApp e transcreve áudios
Fonte: Tecnoblog

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

A Meta confirmou nesta terça-feira (18) o lançamento do Llama 2, seu modelo de linguagem grande (LLM na sigla em inglês) de código aberto e gratuito. O anúncio revelou que a Microsoft será parceira da empresa de Mark Zuckerberg nesta estreia. O Llama 2 será gratuito tanto para pesquisas quanto para uso comercial, além de estar disponível no Microsoft Azure, Windows, Amazon Web Services (AWS) e Hugging Face.

Llama 2 é novo modelo de linguagem grande da Meta e pode ser usado em IA generativa (Imagem: Vitor Pádua / Tecnoblog)

O lançamento dessa nova versão do Llama não chega de surpresa. Na quinta-feira passada, o jornal Financial Times publicou que a Meta estava próxima de anunciar a versão comercial do seu LLM. O Llama é uma tecnologia que pode ser usada como IA generativa. Anteriormente, ela só estava disponível para o público acadêmico e pesquisadores.

Anúncio do Llama 2 tem foto de Zuckerberg e CEO da Microsoft

Para anunciar o lançamento do LLaMA 2, Mark Zuckerberg publicou uma foto com Satya Nadella, CEO da Microsoft, na sua conta no Instagram.

Na legenda, o executivo agradece ao colega e rival e às equipes da Microsoft e da Meta responsáveis pelo desenvolvimento do Llama (sim, de acordo com a empresa, escreve “Llama” e não mais “LLaMA”). O CEO da Meta relembra ainda a parceria de anos entre as duas empresas.

 

 
 

 
 

Ver essa foto no Instagram

 

 
 
 

 
 

 
 
 

 
 

Uma publicação compartilhada por Mark Zuckerberg (@zuck)

“A Meta tem um longo histórico no fornecimento de código aberto de nossa infraestrutura e nosso trabalho com inteligência artificial (IA) – desde o PyTorch [parceria com a Microsoft], a estrutura líder em Machine Learning (aprendizado de máquina), passando por modelos como Segment Anything, ImageBind e Dino, até infraestruturas básicas como parte da fundação Open Compute Project.”

Mark Zuckerberg

Segundo a Meta, o Llama 2 foi treinada com 40% mais dados do que o antecessor.

Detalhes da estrutura do Llama 2 (Imagem: Divulgação/Meta)

Microsoft divulgou preços do Copilot nesta terça-feira

No mesmo dia em que a Microsoft anunciou a parceria com a Meta para o lançamento do Llama 2, a empresa fundada por Bill Gates divulgou os preços do Windows 365 Copilot, sua ferramenta de IA baseada no GPT-4 que funciona integrada com apps como Word, Excel e PowerPoint

Nos Estados Unidos, o serviço custará US$ 30, R$ 145 em conversão direta e sem impostos. O Tecnoblog aguarda um posicionamento da Microsoft sobre os valores aqui no país.
Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT

Meta anuncia Llama 2 e parceria com Microsoft para enfrentar ChatGPT
Fonte: Tecnoblog