Blog

Integração perfeita: Windows 11 recebe opção de compartilhar arquivos com sistema Android

Integração perfeita: Windows 11 recebe opção de compartilhar arquivos com sistema Android

A Microsoft acaba de liberar a atualização de junho de 2023 para usuários do Windows 11 Insider que traz diversas melhorias e um recurso muito interessante: o suporte a compartilhamento de arquivos entre o Android e o Windows. A build 2305.40000.4.0 traz a nova versão do Windows Subsystem for Android que traz esta e outras melhorias.Segundo a Microsoft, o compartilhamento de arquivos foi adicionado, pois é uma das funções mais pedidas pelos usuários do Windows 11. Na lista de mudanças, a empresa explica o recurso da seguinte forma:


Temos o prazer de anunciar que o Windows Subsystem para Android agora pode compartilhar suas pastas de usuário do Windows, como Documentos e Imagens, com o Subsistema, para que cenários como carregar uma foto em um aplicativo de mídia social ou editar um vídeo em um aplicativo criativo funcionem perfeitamente.Clique aqui para ler mais

Integração perfeita: Windows 11 recebe opção de compartilhar arquivos com sistema Android
Fonte: Tudocelular

Novo Peugeot 3008 é flagrado com camuflagem em testes na Europa

Novo Peugeot 3008 é flagrado com camuflagem em testes na Europa

Surgiram novas fotos do novo SUV da Peugeot que deve ser apresentado pela marca em setembro deste ano. Trata-se do modelo 3008, que foi flagrado enquanto eram feitos testes do carro nas ruas do sul da Europa. No entanto, como o carro estava usando camuflagem, não deu para obter muitos detalhes sobre a parte visual.

Mesmo assim, já dá para perceber que ele terá uma pegada mais esportiva devido à inclinação do teto do veículo. Do mesmo modo, é possível notar que os faróis terão um desenho esguio, assim como a entrada de ar grande na região onde está posicionado o radar dos sistemas que auxiliam a condução do motorista.Apesar das fotos não mostrarem nada a respeito do interior do automóvel, a própria montadora chegou a revelar alguns detalhes sobre o que ele deve carregar por dentro. Dessa forma, o modelo deve marcar a estreia do Panoramic i-Cockpit, que tem como principal destaque uma tela longa, curva e de alta definição.Clique aqui para ler mais

Novo Peugeot 3008 é flagrado com camuflagem em testes na Europa
Fonte: Tudocelular

Samsung lançará novos sensores para headsets AR/VR modernos

Samsung lançará novos sensores para headsets AR/VR modernos

Com o anúncio do Apple Vision Pro, o setor de dispositivos AR e VR ficou ainda mais aquecido. Diante disso, a Samsung quer consolidar sua liderança nesta fatia do mercado com novos sensores para esse tipo de produto.

Segundo o informante @Tech_Reve, a Samsung apresentará novos sensores 3D ToF no evento VLSI Symposium 2023 nesta semana. Especula-se que um dos sensores possui um ISP (processador de sinal de imagem) on-chip e uma tecnologia de processo de 2 pilhas. O sensor supostamente possui uma camada BSI (Back Side Illumination) de 65 nm e uma área CMOS de 28 nm. Também há rumores de que o sensor 3D ToF seja capaz de medir distâncias de até 5 metros a uma taxa de quadros de 60 fps.Esse deve ser um chip de baixa potência, com consumo de energia em torno de 188mW. Isso favoreceria muito a implantação em headsets, que costumam usar diversos desses sensores para medir áreas próximas, objetos e gestos manuais para operar fones de ouvido AR/VR.Clique aqui para ler mais

Samsung lançará novos sensores para headsets AR/VR modernos
Fonte: Tudocelular

PCI Express 7.0 ganha rascunho e promete largura de banda 4 vezes maior que PCIe 5.0 em 2027

PCI Express 7.0 ganha rascunho e promete largura de banda 4 vezes maior que PCIe 5.0 em 2027

O PCI Special Interest Group (PCI-SIG), grupo responsável pela manutenção de um dos mais importantes padrões de conexão de hardware, anunciou a conclusão do primeiro rascunho de especificação do PCI Express 7.0 (PCIe 7.0). Isso significa que todas as tecnologias necessárias para seu desenvolvimento estão definidas.

Com o rascunho, a organização reforça as metas de desempenho do PCI Express de 7ª geração. É esperado que o padrão ofereça taxa de transferências de até 128 GT/s e largura de banda bidirecional de até 512 GB/s em interface de 16 pistas, isto é, quatro vezes maior que o atual padrão PCI Express 5.0 e o dobro do PCI Express 6.0, que deve estrear em 2024.A nova especificação terá modulação por amplitude de pulso de 4 níveis (PAM4). Essa tecnologia será capaz de entregar mais eficiência de energia e alta confiabilidade de transferência de dados. O PCIe 7.0 também deve manter retrocompatibilidade com as normas anteriores para garantir vida longa às placas de vídeo e outros componentes.Clique aqui para ler mais

PCI Express 7.0 ganha rascunho e promete largura de banda 4 vezes maior que PCIe 5.0 em 2027
Fonte: Tudocelular

Digite mensagens de forma rápida e fácil com a Escrita inteligente no Google Chat

Digite mensagens de forma rápida e fácil com a Escrita inteligente no Google Chat

Este artigo é a tradução do Blog em inglês do dia 5 de Junho.

O que vai mudar?

Você pode criar e-mails e conteúdo de alta qualidade mais rápido com a Escrita inteligente no Gmail e nos Documentos Google. Esse recurso que usa aprendizado de máquina sugere frases relevantes para o contexto enquanto você digita. Com ele, você poupa tempo porque evita repetições e reduz os erros de ortografia e gramática. 

 

Hoje, anunciamos que o recurso Escrita inteligente agora estará disponível no Google Chat na Web. Junto com a ferramenta Resposta inteligente, que sugere respostas curtas para mensagens, o recurso vai ajudar você a se comunicar com colegas de forma rápida, para levar conversas e projetos adiante de forma eficiente. 

 

 

Para quem isso é válido? 

Usuários finais.

 

 

Por que é importante? 

Muitas pessoas usam o Chat para comunicações imediatas enquanto lidam com outras prioridades. Esse recurso ajuda você a escrever mensagens de forma rápida e fácil, o que poupa tempo e esforço. 

 

 

Mais detalhes 

A Escrita inteligente está disponível em espanhol, francês, inglês, italiano e português. 

 

Como começar 

Administradores: esse recurso não tem um controle específico. A Escrita inteligente no Chat respeita as definições de recursos inteligentes e personalização do usuário. O padrão dessa configuração pode ser controlado pelos administradores. Acesse a Central de Ajuda para saber como ativar ou desativar os recursos inteligentes e a personalização do Gmail, do Chat e do Meet. 
Usuários finais: 

Esse recurso fica ativado por padrão. Para desativar, acesse as configurações do Chat. Em “Escrita inteligente”, desmarque a caixa “Ativar as sugestões de escrita preditiva ao escrever uma mensagem na Web e no computador”. 
Quando você gostar de uma sugestão e quiser usar, pressione a tecla “Tab”.
Acesse a Central de Ajuda para saber como usar a Escrita inteligente no Google Chat.

Opções de lançamento 

Domínios com lançamento rápido: lançamento estendido (possivelmente mais de 15 dias para a visibilidade do recurso) a partir de 5 de junho de 2023.
Domínios com lançamento agendado: lançamento gradual (até 15 dias para a visibilidade do recurso) a partir de 26 de junho de 2023. 

Disponibilidade 

Disponível para todos os clientes do Google Workspace e usuários com Contas pessoais do Google.

Recursos 

Ajuda do admin do Google Workspace: Ativar ou desativar os recursos inteligentes e a personalização do Gmail, do Chat e do Meet 
Ajuda do Google: Usar a Escrita inteligente no Google Chat



Digite mensagens de forma rápida e fácil com a Escrita inteligente no Google Chat
Fonte: Google Workspace

MacBook Air de 15 polegadas da Apple é desmontado em vídeo

MacBook Air de 15 polegadas da Apple é desmontado em vídeo

Um vídeo publicado nesta semana mostrou a desmontagem do novo MacBook Air de 15 polegadas com chip M2. Nesse sentido, o canal Max Tech se dedicou a destrinchar a pate física desse dispositivo e fez algumas comparações com a variante de 13″ do notebook da Apple.

As diferenças, então, começam pelo design da placa-mãe, que está com tamanho menor no aparelho de maior tamanho. De acordo com o apresentador, essa escolha se deu para que a maçã tornasse os alto-falantes maiores, o que é sempre bem-vindo para quem gosta de consumir mídia no laptop.Levando em conta somente as versões de 15 polegadas, vale ressaltar que a versão com SSD de 256GB será um pouco mais lenta em comparação com os modelos de maior capacidade. A razão disso se dá pelo fato da Apple ter equipado essa variante base com apenas um chip NAND, enquanto os demais utilizam múltiplos componentes desse tipo.Clique aqui para ler mais

MacBook Air de 15 polegadas da Apple é desmontado em vídeo
Fonte: Tudocelular

Simplificar e fortalecer a segurança no login dos usuários com as chaves de acesso, agora disponíveis na versão Beta aberta

Simplificar e fortalecer a segurança no login dos usuários com as chaves de acesso, agora disponíveis na versão Beta aberta

Este artigo é a tradução do Blog em inglês do dia 5 de Junho.

O que vai mudar?

O Google Workspace está disponibilizando o uso de chaves de acesso como uma alternativa mais simples e segura do que as senhas para fazer login nas Contas do Google. Além disso, agora os administradores podem permitir o uso das chaves de acesso para que os usuários pulem a verificação por senha ao fazer login nos apps do Workspace. Com o recurso, eles não precisam inserir senhas, apenas usar chaves de acesso, como impressão digital, reconhecimento facial ou outro mecanismo de bloqueio de tela em smartphones, laptops ou computadores. 

 

O recurso está disponível na versão Beta aberta, ou seja, os administradores não precisam se inscrever em um programa Beta específico para usá-lo. 

 

As chaves de acesso foram criadas com foco na privacidade do usuário. Quando um usuário faz login com uma chave de acesso em apps do Workspace, como o Gmail ou Google Drive, a chave confirma que o usuário tem acesso ao dispositivo e pode desbloqueá-lo com impressão digital, reconhecimento facial ou outro mecanismo de bloqueio de tela. Os dados biométricos do usuário jamais são enviados para os servidores, outros sites ou apps do Google. 

 

 

Para quem isso é válido? 

Administradores e usuários finais. 

 

 

Por que usar? 

As chaves de acesso são uma nova maneira de fazer login sem precisar de senha. Com elas, a experiência de autenticação fica mais simples e segura em sites e apps. As chaves de acesso se baseiam em um padrão do setor e estão disponíveis para os navegadores e sistemas operacionais mais usados, como Android, ChromeOS, iOS, macOS e Windows. Dados preliminares do Google (de março a abril de 2023) mostram que as chaves de acesso são 2x mais rápidas e apresentam 4x menos chances de erro que as senhas. 

 

As chaves de acesso se baseiam nos mesmos protocolos de criptografia de chave pública que as de segurança física, como a chave de segurança Titan. Assim, elas também conseguem impedir o phishing e outros ataques on-line. Aliás, a pesquisa do Google demonstrou que as chaves de segurança oferecem mais proteção contra bots automatizados, ataques de phishing em massa e ataques direcionados, do que SMS, senhas únicas no app e outras formas tradicionais de autenticação de dois fatores. Consulte nossa postagem do blog (em inglês) sobre a parte técnica para entender melhor como essas chaves funcionam. 

 

Como começar 

Administradores: podem permitir o login com chaves de acesso para que os usuários não precisem usar senhas. Por padrão, essa configuração fica desativada. Por isso, os usuários não podem pular o uso da senha no login, mas podem criar e usar chaves de acesso como um método de verificação em duas etapas. Para que os usuários possam pular a verificação por senha, os administradores precisam seguir estas etapas no Admin Console. 

Os administradores podem ativar ou desativar o recurso no Admin Console em Segurança > Sem senha. 

Usuários finais: se o recurso for ativado pelo administrador, acesse g.co/passkeys para começar a usar as chaves de acesso no lugar das senhas ou como um método de verificação em duas etapas. Saiba mais sobre fazer login com uma chave de acesso em vez de uma senha na Central de Ajuda.

Caso o recurso seja ativado pelo administrador, você terá a opção de pular a verificação por senha nas configurações da conta.

 

Opções de lançamento

Domínios com lançamento rápido e agendado: lançamento gradual (até 15 dias para a visibilidade do recurso) a partir de 5 de junho de 2023. 

Disponibilidade 

Disponível para todos os clientes do Google Workspace e Cloud Identity. 

Recursos

Ajuda do admin do Google Workspace: Permitir que os usuários pulem a verificação por senha no login (Beta)
Ajuda do Google: Fazer login com uma chave de acesso em vez de uma senha

 



Simplificar e fortalecer a segurança no login dos usuários com as chaves de acesso, agora disponíveis na versão Beta aberta
Fonte: Google Workspace

Apple Vision Pro: eu usei o aparelho VR pela primeira vez

Apple Vision Pro: eu usei o aparelho VR pela primeira vez

Finalmente a Apple fez o lançamento do Apple Vision Pro e ingressou no mundo da realidade virtual. O dispositivo foi apresentado na semana passada, durante a abertura da conferência WWDC 2023. Algumas poucas pessoas puderam colocar o aparelho na cabeça e fazer testes. Eu tive esse privilégio e vim aqui contar por que o Vision Pro é inigualável – tanto em recursos, quanto no preço de US$ 3.500, o que dá mais de R$ 17 mil em conversão direta.

Apple Vision Pro na sede da Apple nos Estados Unidos (Imagem: Thássius Veloso/Tecnoblog)

Primeiro de tudo, é preciso levar em consideração que existiam muitos rumores em relação ao próximo dispositivo da maçã. Como ele seria? Teria mesmo um fio para conectar capacete à bateria? Haveria integração com o iPhone? Todos estes pontos foram explicados durante a apresentação de Tim Cook e comparsas da maçã. Depois disso começou a jornada para experimentar o equipamento, que só chega ao mercado norte-americano no começo do ano que vem.

Ah, antes que você pergunte: não há qualquer previsão de preço ou de data de lançamento no Brasil. Mas, como a gente ama tecnologia, não me custa relatar o que está vindo por aí.

Primeiro contato com o Vision Pro

O teste de aproximadamente 25 minutos aconteceu no Apple Park, a nave-mãe da Apple na cidade de Cupertino, nos Estados Unidos. Ao chegar ao ambiente, fui convidado a fazer um escaneamento do meu rosto e das minhas orelhas. Isso ocorre num app que lembra bastante o Face ID e leva poucos segundos. Depois, passei por uma optometrista que utilizou um aparelho especial para checar meus óculos de grau (tenho miopia e astigmatismo).

A etapa seguinte foi esperar uns bons 10 minutos. A equipe da Apple me levou para uma sala com representantes da empresa. Ela tinha por volta de 4 x 4 metros, com uma mesa de centro e um sofá. Somente eu me sentei na poltrona e não havia nenhuma TV diante de mim. Já era uma pista dos passos seguintes.

Eu tinha visto o Vision Pro de perto no dia anterior, no Steve Jobs Theater, mas só agora teria a chance de observá-lo mais de perto. Toda a estrutura é muito bem acabada, numa junção de vidro, plástico e outros elementos que aparentam ser de primeira linha. Você não tem a impressão de manusear algo barato, muito pelo contrário.

Design de milhões

Apple Vision Pro tem estrutura modular (Imagem: Divulgação/Apple)

Logo nesta etapa, fica evidente uma escolha de design do time da maçã. Eles me explicaram que o Apple Vision Pro tem um formato modular que permite, por exemplo, trocar o visor convencional por outro com lentes de grau simplesmente recorrendo ao magnetismo (eu adoro este princípio da física, diga-se de passagem!). Ainda não está claro de que forma a empresa irá comercializar o headset, mas já se sabe que ela mantém uma parceria com a Zeiss.

O processo de colocar os óculos VR levou alguns instantes principalmente por ser necessário ajustar as tiras que passam por cima e por trás da cabeça. O Vision Pro pesa em torno de 450 gramas, bem pouquinho. Na minha experimentação, não senti incômodo depois dos quase 30 minutos. Outros jornalistas se queixaram de que o aparelho começa a pesar com o passar do tempo.

Muita tecnologia no dispositivo VR

Falemos agora da tecnologia por trás do áudio e do vídeo. Sim, estamos falando de som espacial, que dá a impressão de 360 graus. As músicas, efeitos sonoros, chamadas de voz etc. se “movimentam” conforme a posição do usuário. Já as duas telas diante de cada olho, cada qual com definição equivalente a uma TV 4K, de acordo com a fabricante, são realmente impressionantes no quesito qualidade.

Um dos trunfos da Apple está em reduzir a latência do equipamento ao mínimo. Todos os movimentos com a cabeça são rapidamente detectados pelo Vision Pro para que a ação equivalente ocorra dentro do universo digital. Esta é outra reclamação antiga de usuários de headsets de realidade virtual/mista. Quanto menor a latência, maior o conforto e a imersão.

Tela inicial do Apple Vision Pro; os ícones flutuam pelo espaço, com direito a sombras e efeitos de luz (Imagem: Divulgação/Apple)

Aliás, por falar em realidade mista: as muitas câmeras do Vision Pro permitem criar o efeito de passthrough, conforme chamam em inglês. Eu não encontrei nenhuma boa tradução no nosso idioma, mas na prática significa que o usuário tem a impressão de estar vendo “atrás” das telas do equipamento. Quando o pus pela primeira vez, eu vi exatamente a sala onde eu estava e as pessoas que ali me acompanhavam. Não existe aquilo de imediatamente cair num outro universo completamente diferente.

Passthrough de primeira

Ao estender as mãos diante do meu corpo, as vi pelo Apple Vision Pro. Trata-se de uma visualização mediada por uma tela, mas você se esquece disso… até que aciona a Coroa Digital, uma tecla lateral que puxa os ícones de aplicativos. Nesta hora você se recorda de que o Vision Pro é mais do que um conjunto de câmeras de alta qualidade.

Em sua essência, é um aparelho em que a Apple explora o sistema visionOS, também anunciado na WWDC 2023. Todos os elementos visuais em 3D têm profundidade, sombra e interagem com o mundo real. Os criadores do aparelho conseguiram integrar digital e físico de uma maneira que eu jamais vi num produto similar.

Dinossauro “invade” a sala em degustação do Apple Vision Pro (Imagem: Divulgação/Apple)

Quem acompanha a evolução da realidade virtual certamente já embarcou em experimentações que mostram filmes imersivos, cenários paradisíacos, salas de cinema privativas, dinossauros em altíssima qualidade. Tudo isso tem no Apple Vision Pro. Eu diria que a grande disrupção está em integrar hardware e software para que a experiência beire o impecável. Estamos falando de um dispositivo confiável, seguro e que funciona com vários aplicativos disponíveis desde que ele sai da caixa.

O sistema visionOS

Para além disso, a fabricante criou um novo sistema específico para este fim e o apresentou exatamente aos profissionais que irão se interessar (será?) em produzir novas experiências para o headset de realidade virtual. Existem frameworks, APIs e orientações formais para que os devs comecem a brincar desde agora com apps de Vision Pro. E se não quiserem fazer algo completamente novo, poderão usar os programas do iPhone e do iPad (principalmente este último) como base para marcar presença neste admirável (?) mundo novo.

Eu tive a oportunidade de conversar com alguns programadores durante a WWDC. Todos estavam empolgados com a ferramenta liberada pela Apple para simular apps dentro do Vision Pro, mesmo que a pessoa não tenha o dispositivo (ele não está à venda!). Por outro lado, vários destes profissionais admitiram que será difícil atuar no visionOS quando têm outras urgências, equipes pequenas. Eles ainda mencionam o mercado incerto, uma vez que parece ser um dispositivo de nicho.

Apple Vision Pro – WWDC 23 (Imagem: Divulgação/Apple)

Alguns gargalos do Apple Vision Pro

Nenhum produto é perfeito e o Apple Vision Pro não foge à regra. Para mim não ficou exatamente claro de que forma os seres humanos vão interagir entre si dentro do ambiente virtual. Eu mesmo testei uma chamada de FaceTime com vídeo de uma persona – ou seja, uma pessoa de carne osso cuja representação gráfica virtual, conforme capturada por outro Vision Pro, foi exibida dentro do visionOS. É bem feito, um avanço em relação a outros avatares que vimos por aí. No entanto, esbarra no Vale do Estranho. É esquisito de olhar e de interagir.

A imprensa gringa levantou o ponto do isolamento, uma vez que a maioria das situações retratadas na WWDC incluíam pessoas solitárias em casa ou no escritório. Seria o Vision Pro uma válvula de escape ou um novo dispositivo a la Black Mirror, que irá alimentar o nosso vício por muito feed e pouca interação humana? Não há como saber.

Apple Vision Pro: headset VR e bateria (Imagem: Thássius Veloso/Tecnoblog)

Do ponto de vista prático, também é questionável que a bateria fique conectada por um fio lateral. Mais ainda pensar que a autonomia de uso dura cerca de 2 horas, bem pouco quando consideramos que qualquer filme de herói hoje em dia dura mais.

Apenas o primeiro passo

Ninguém tem dúvidas de que a Apple está apenas começando sua história dentro da realidade mista. O Vision Pro ainda vai mudar muito nos próximos anos. Este primeiro modelo apresentado na WWDC impressiona pela qualidade técnica, mas não é só disso que vive a tecnologia. Precisamos observar os próximos passos da companhia no sentido de atrair clientela e desenvolvedores.

Não creio que o Vision Pro será o próximo iPhone. Ele não resolve nenhum problema vivenciado por bilhões de pessoas. Por outro lado, tem potencial para se tornar uma nova fonte de receita para a Apple (pouco se falou, aliás, sobre itens comercializados dentro do universo 3D). Será necessário comunicar muito bem quais situações do dia a dia ficam melhores quando a pessoa decide usar um headset VR e não um smartphone, um tablet ou um computador.

O tempo dirá se a excelência técnica e o sofisticado sistema operacional do Apple Vision Pro serão suficientes para encantar os consumidores.

Apple Vision Pro oferece imersão completa em cenas de tirar o fôlego (Imagem: Divulgação/Apple)

Algumas curiosidades

O visionOS sabe exatamente onde você está olhando. É assim que o usuário seleciona um botão, por exemplo. E basta o gesto de juntar rapidamente polegar e indicador para fazer o clique.

Da mesma forma, a pessoa pode juntar prolongadamente os dois dedos para movimentar objetos 3D.

Numa das experiências, uma borboleta digital pousou no meu dedo. Esta técnica – chamada em inglês de occlusion – está muito a frente do que vi em aparelhos similares da concorrência (principalmente a Meta).

Na frente do Vision Pro há uma tela que exibe os olhos da pessoa, para que o headset não se torne uma barreira. Não foi possível ver o recurso em uso.

Também não foi possível criar a minha própria persona dentro do visionOS.

Só pude testar uma interação online com outra pessoa. Ela estava numa espécie de chamada de vídeo do FaceTime.

Tenho dúvidas sobre como será a representação 3D dos usuários que estiverem junto contigo dentro dos ambientes virtuais do visionOS. Terão pernas, por exemplo?

Thássius Veloso viajou para Cupertino, nos Estados Unidos, a convite da Apple

Apple Vision Pro: eu usei o aparelho VR pela primeira vez

Apple Vision Pro: eu usei o aparelho VR pela primeira vez
Fonte: Tecnoblog

Photonic Engine: por dentro da técnica de fotografia computacional do iPhone

Photonic Engine: por dentro da técnica de fotografia computacional do iPhone

Photonic Engine é uma tecnologia de fotografia computacional que melhora as cores e o nível de detalhes nas câmeras do iPhone por meio de aprendizado de máquina. O recurso foi lançado pela Apple junto à linha iPhone 14.

iPhone 14 Pro e 14 Pro Max têm câmeras com Photonic Engine (Imagem: Vitor Pádua/Tecnoblog)

ÍndiceComo funciona o Photonic Engine no iPhone?Qual é a diferença entre Photonic Engine e Deep Fusion?Quais iPhones têm Photonic Engine?Como ativar ou desativar o Photonic Engine?Quando o Photonic Engine foi lançado?

Como funciona o Photonic Engine no iPhone?

O Photonic Engine usa machine learning para processar os pixels das fotos capturadas pelo iPhone e aprimorar os detalhes, textura e ruído das imagens.

A captura de uma foto no iPhone começa na lente, que projeta a luz em um dos sensores CMOS do aparelho. Até nove fotos são tiradas em sequência, e depois passam pelo processador de imagem (ISP), Neural Engine e outras partes do chip do iPhone (também conhecido como SoC) para convertê-las em uma única imagem digital.

Múltiplas imagens são capturadas em sequência e depois “fundidas” no Deep Fusion e Photonic Engine (Imagem: Reprodução/Apple)

A imagem pode ser comprimida com tecnologias como HEIC e JPEG, que reduzem o tamanho do arquivo e facilitam seu compartilhamento na internet, ou ser fornecida no formato RAW, que mantém todos os dados do sensor. O Photonic Engine atua antes do processo de compressão.

A Apple não detalha os métodos usados no Photonic Engine. Por meio do aprendizado de máquina, um ISP pode ser treinado para restaurar uma textura que não foi bem capturada pelo sensor, ou entender o conteúdo da foto para aplicar os melhores ajustes de contraste, nitidez e equilíbrio de cores, por exemplo.

Photonic Engine, tecnologia de fotografia computacional lançada pela Apple em setembro de 2022 (Imagem: Reprodução/Apple)

Qual é a diferença entre Photonic Engine e Deep Fusion?

O Deep Fusion é um recurso de fotografia computacional presente em câmeras de iPhone, e usa aprendizado de máquina para melhorar a qualidade das fotos por meio de uma combinação de várias capturas. Já o Photonic Engine é uma evolução do Deep Fusion.

Segundo a Apple, o Photonic Engine aplica o Deep Fusion em uma etapa anterior do processamento de imagem para preservar detalhes e texturas.

Caron Thor, gerente sênior de qualidade de imagem de câmeras da Apple, anunciou que o Photonic Engine é “o maior passo até hoje em desempenho com baixa iluminação”. A promessa é melhorar a captura de luz em até 2x nas selfies, 2x na lente ultrawide e 2,5x na câmera principal do iPhone 14.

Quais iPhones têm Photonic Engine?

Os iPhones lançados a partir de setembro de 2022 têm câmeras com Photonic Engine. A lista de modelos com suporte ao recurso inclui:

iPhone 14

iPhone 14 Plus

iPhone 14 Pro

iPhone 14 Pro Max

Como ativar ou desativar o Photonic Engine?

O Photonic Engine não pode ser ligado ou desligado manualmente pelo usuário. Ele é usado em todas as câmeras dos iPhones compatíveis sempre que o usuário tira uma foto e pode trazer resultados mais significativos quando a iluminação for baixa.

Quando o Photonic Engine foi lançado?

O Photonic Engine foi lançado em setembro de 2022, no mesmo evento em que a Apple anunciou as linhas iPhone 14 e iPhone 14 Pro. Os celulares Pro receberam pela primeira vez uma câmera principal de 48 megapixels com pixel binning, substituindo a resolução de 12 MP usada em sensores de imagem desde o iPhone 6s, de 2015.

Photonic Engine: por dentro da técnica de fotografia computacional do iPhone

Photonic Engine: por dentro da técnica de fotografia computacional do iPhone
Fonte: Tecnoblog

Funcionários da Samsung estão decepcionados com o Galaxy Z Fold 5

Funcionários da Samsung estão decepcionados com o Galaxy Z Fold 5

Se você espera que o Galaxy Z Fold 5 tenha uma diminuição no vinco da tela, você ficará decepcionado com a Samsung. Mas tudo bem, até mesmo os funcionários da empresa estão assim com a fabricante. De acordo com um leaker, a falta de inovação no design do dobrável gerou reclamações dos empregados da sul-coreana.

Ausência de inovação no design do Galaxy Z Fold 5 deixou funcionários da Samsung decepcionados. Imagem ilustrativa (Imagem: Darlan Helder/Tecnoblog)

A informação veio do IceUniverse, conhecido pelos seus vazamentos relacionados aos produtos da Samsung e fabricantes chinesas de smartphones. Todavia, enquanto o vinco na tela continua, outras leakers afirmam que veremos boas atualizações nas especificações.

Samsung seguirá atrás das concorrentes chinesas

Apesar de pioneira no segmento de smartphones dobráveis, os concorrentes chineses da Samsung já possuem celulares desse tipo e sem o vinco na tela. O Google, novo “jogador” do mercado dobráveis, não corrigiu o “problema” de design no seu Pixel Fold. Segundo alguns reviews no exterior, o vinco do smartphone do Google é até maior que o existente no Z Fold 4.

Na análise do Galaxy Z Fold 3 feita aqui no Tecnoblog, comentamos que no primeiro dia de uso você já se acostuma com a “depressão” no meio da tela. Porém, quando você paga quase R$ 12.000 em um smartphone, você espera um design bonito — e o vinco é feio.

Funcionários da Samsung reclamara do “design tedioso” do Galaxy Z Fold 5 (Imagem: Reprodução/Tecnoblog)

Ainda de acordo com IceUniverse, o “desnível” na tela do Galaxy Z Fold 5 será 15% menor que o do seu antecessor. Um funcionário da Samsung teria dito que o modelo não poderia nem ser chamado “Z Fold 4s” — uma alusão às fabricantes que lançam aparelhos com pequenas atualizações, mas não o bastante para ser uma nova geração.

Hardware ganhará atualizações, incluindo tela com mais brilho

Enquanto o vinco continuará (assim como a decepção dos funcionários), a Samsung deve compensar com melhorias nos hardwares. Se a tela seguirá com o “desnível”, pelo menos o brilho será aumentado. A tela externa ainda pode ficar maior.

Na parte de resistência, um rumor publicado na semana passada informa que a Samsung foi capaz de desenvolver proteção IP58 no Z Fold 5. Com isso, o novo dobrável terá proteção “nível 5” contra poeira.

Um outro rumor sugere que o Z Fold 5 terá as mesmas câmeras do Galaxy S22 e S22 Plus. Enquanto a resolução dos sensores será o mesmo, as melhorias ficam nos seus tamanhos maiores. Claro, ainda são “rumores e vazamentos”. Mas saberemos a veracidade dessas informações no fim de julho, durante o próximo Galaxy Unpacked.

Com informações: TechRadar
Funcionários da Samsung estão decepcionados com o Galaxy Z Fold 5

Funcionários da Samsung estão decepcionados com o Galaxy Z Fold 5
Fonte: Tecnoblog