Category: iPhone

O que é Apple ProRes? Entenda o formato profissional de vídeos do iPhone

O que é Apple ProRes? Entenda o formato profissional de vídeos do iPhone

Apple ProRes é uma família de codecs de vídeo desenvolvida para permitir filmagens de alta qualidade de imagem e, ao mesmo tempo, minimizar o tamanho dos arquivos. A tecnologia suporta resoluções como 4K e 8K, e é um dos diferenciais dos iPhones Pro.

ProRes no iPhone 14 Pro (imagem: Emerson Alecrim/Tecnoblog)

ÍndiceQuem criou o formato ProRes?Como funciona o Apple ProRes?Quais são os tipos de codecs ProRes?Como abrir um arquivo Apple ProRes?Quais são as vantagens do Apple ProRes?Quais são as desvantagens do Apple ProRes?Como converter ProRes para MP4?Como ativar a filmagem em ProRes no iPhone?

Quem criou o formato ProRes?

O formato ProRes foi criado pela Apple em 2007 e introduzido no pacote de softwares para vídeos Final Cut Studio 2. A tecnologia foi apresentada como um formato de pós-produção que gera vídeos de alta definição (HD) em arquivos com tamanho de definição padrão (SD).

A Apple licencia o ProRes para outras empresas desde então. A tecnologia está presente nos softwares de edição de companhias como Adobe e Blackmagic Design, e em câmeras de marcas como Canon, DJI e Panasonic.

Em 2018, a Apple apresentou o ProRes RAW, tecnologia que combina as características de compressão do ProRes original com os dados brutos (não processados) de imagens RAW. Essa combinação é usada principalmente para otimizar o desempenho de conteúdo com amplo alcance dinâmico (HDR).

Já em 2021, o ProRes foi lançado junto com o iOS 15.1 como um dos diferenciais do iPhone 13 Pro e do iPhone 13 Pro Max. A tecnologia também aparece nos iPhone 14 Pro e 14 Pro Max.

O ProRes só pode ser ativado nos iPhones Pro (imagem: Emerson Alecrim/Tecnoblog)

Como funciona o Apple ProRes?

O ProRes é um codec de vídeo intraframe que funciona aplicando compressão em cada quadro (frame) da filmagem. Essa abordagem gera mais dados do que a compressão interframe, mas tem a vantagem de permitir edições com mais desempenho e precisão.

O que é codec?
Codec é um mecanismo que compacta e descompacta arquivos de vídeo para facilitar sua transmissão ou armazenamento. A compactação ocorre quando o vídeo é preparado. A descompactação é feita no momento da reprodução.

Isso acontece porque a compressão interframe guarda apenas alguns quadros de modo completo. Os quadros intermediários só registram as diferenças em relação aos completos. Essa técnica resulta em um arquivo muito menor, mas pode exigir que o computador recupere vários quadros para que apenas um seja editado.

Por aplicar compressão sobre cada quadro, o ProRes permite descompactação e edição de vídeo com mais desempenho, e pode preservar mais detalhes. A redução do tamanho do arquivo acaba sendo menor em relação a outros codecs, mas o vídeo final tende a ter mais qualidade de imagem.

O padrão ProRes RAW consegue ir além por aplicar compressão sobre os dados brutos, que são aqueles que saem do sensor de imagem e vão para o processador de imagem sem passar por tratamento prévio.

Esse processo comprime a imagem, mas preserva dados que permitem ajustes minuciosos em parâmetros como equilíbrio de cores e exposição, o que explica a sua indicação para conteúdo em HDR.

Normalmente, arquivos Apple ProRes e ProRes RAW têm extensão .MOV.

ProRes no app de câmera do iPhone 14 Pro (imagem: Emerson Alecrim/Tecnoblog)

Quais são os tipos de codecs ProRes?

A Apple desenvolveu seis tipos de codecs ProRes para atender a necessidades específicas. As principais características de cada versão são descritas na lista abaixo.

Na tabela, a coluna Chroma Subsampling indica o tipo de compressão que reduz as informações de cor. O primeiro número informa a luminância (intensidade da luz), enquanto os demais determinam os espectros de vermelho e azul. Quanto maior o número, menor a quantidade de informação descartada.

Já o bitrate indica a quantidade de dados transmitidos por segundo. Quanto maior esse valor, mais qualidade de imagem o vídeo tende a ter.

FormatoFinalidadeChroma subsamplingBitrate em Full HD e 30 fpsTamanho em Full HD e 30 fpsProRes 422 ProxyFluxos de trabalho offline que necessitam de pouco bitrate, mas resolução total4:2:245 Mb/s20 GB/hrProRes 422 LTAmbientes onde a capacidade de armazenamento e a taxa de dados são maiores4:2:2102 Mb/s46 GB/hrProRes 422Mais desempenho para edição multistream em tempo real4:2:2147 Mb/s66 GB/hrProRes 422 HQPreserva a qualidade de imagem do ProRes 4444, mas para fontes de imagem 4:2:24:2:2220 Mb/s99 GB/hrProRes 4444Para qualidade elevada de ProRes em fontes de imagem 4:4:4:4 (incluindo canais alfa)4:4:4330 Mb/s148 GB/hrProRes 4444 XQVersão com a qualidade mais alta, ideal para fontes de imagem 4:4:4:4 (incluindo canais alfa)4:4:4495 Mb/s223 GB/hr

Como abrir um arquivo Apple ProRes?

No iPhone e iPad, arquivos Apple ProRes e ProRes RAW podem ser reproduzidos ou editados rapidamente em aplicativos como Fotos e iMovie. Ambos os codecs não estão disponíveis para Android.

Para edições mais elaboradas, é recomendável o uso de softwares como Final Cut Pro no macOS, e Adobe Premiere Pro no Windows. Em sistemas Linux e Android, arquivos ProRes podem ser exportados a partir de softwares como o FFmpeg.

Quais são as vantagens do Apple ProRes?

Edição com alto desempenho: softwares de edição como Final Cut Pro permitem editar arquivos ProRes em tempo real e multistream, aumentando a produtividade;

Alta qualidade de imagem: os formatos ProRes não aplicam compressões muito intensas, razão pela qual os vídeos resultantes mantém níveis elevados de qualidade de imagem, favorecendo a pós-produção;

Profundidade de cores: o codec trabalha com profundidade de cores de 10 bits, tipicamente. Mas a tecnologia pode chegar a 12 bits por canal de imagem, ou 16 bits no canal alfa (define a opacidade de um pixel);

Suporte a variadas resoluções: a tecnologia evoluiu a ponto de suportar até vídeos com ampla quantidade de pixels, como a resolução 8K. Nos iPhone 13 Pro e 14 Pro, o formato suporta vídeos em 4K com taxa de quadros de até 30 fps;

Compressão eficiente: a compressão de arquivos Apple ProRes é significativa mesmo mantendo a qualidade de imagem. Isso permite que o arquivo final ocupe menos armazenamento ou seja transferido mais rapidamente.

Quais são as desvantagens do Apple ProRes?

Menor compatibilidade: o ProRes é um formato profissional que não tem tanto suporte quanto codecs como H.264 e H.265. Em algumas plataformas e softwares, o arquivo ProRes tem que passar por conversão para ser aberto;

Gera arquivos grandes: arquivos em ProRes podem ocupar bastante espaço de armazenamento, principalmente se o vídeo tiver alta resolução;

Exige muito processamento: editar vídeos ProRes de modo eficiente requer um computador com boas quantidades de memória RAM e armazenamento. Também é importante ter uma CPU potente, como um chip Apple M1 ou M2;

Gastos com licença de software: trabalhos profissionais ou avançados com ProRes exigem softwares caros, como o Final Cut Pro e o Avid Media Composer;

Requer um iPhone Pro: gravações em ProRes só estão disponíveis nos iPhones de categoria Pro, a exemplo do iPhone 14 Pro Max. Além disso, há limitações de resolução em iPhones Pro com menos capacidade de armazenamento.

Um vídeo ProRes de 31 segundos e 4K ficou com 2,7 GB de tamanho (imagem: Emerson Alecrim/Tecnoblog)

Como converter ProRes para MP4?

É preciso utilizar um software de conversão, como o MP4 Converter para iOS. Outra solução é exportar arquivos ProRes para MP4 a partir de softwares de edição, como Final Cut Pro e Adobe Premiere Pro.

Como ativar a filmagem em ProRes no iPhone?

Para o codec ser ativado no iPhone é preciso ir em Ajustes / Câmera / Formatos. Na sequência, role a tela e ative o botão Apple ProRes. No aplicativo de câmera, basta abrir a opção Vídeo e tocar em ProRes para a gravação nesse formato ser iniciada.
O que é Apple ProRes? Entenda o formato profissional de vídeos do iPhone

O que é Apple ProRes? Entenda o formato profissional de vídeos do iPhone
Fonte: Tecnoblog

iPhone 15 pode ganhar traseira com mesmo acabamento da versão Pro

iPhone 15 pode ganhar traseira com mesmo acabamento da versão Pro

O tempo voa, e já estamos a cerca de três meses de conhecer a nova linha de iPhones da Apple. Os rumores, como você poderia esperar, estão a todo vapor. Uma nova informação indica que os modelos básicos vão ganhar o mesmo acabamento que a linha Pro, o que pode significar que mais mudanças estão a caminho.

Traseira do iPhone 14 Pro, com câmera tripla (Imagem: Emerson Alecrim/Tecnoblog)

Segundo um usuário da rede social Weibo — o mesmo que antecipou corretamente a chegada dos iPhones amarelos —, o iPhone 15 básico terá revestimento em vidro matte texturizado na parte de trás.

Atualmente, o modelo Pro vem com esse tipo de acabamento, enquanto o padrão usa um acabamento acetinado, mais reluzente.

Além do acabamento matte, o iPhone 15 pode ganhar outros recursos da atual linha Pro. Um deles é a câmera: o sensor de 48 megapixels, que fez sua estreia no iPhone 14 Pro, pode chegar ao modelo básico.

Outro é a Dynamic Island, nome dado à área usada para mostrar notificações e informações em tempo real, além de esconder o buraco da câmera central.

Por outro lado, alguns recursos devem continuar exclusivos da linha Pro. É o caso da tela de 120 Hz — o iPhone 15 deve vir com um painel de 60 Hz mesmo.

iPhone 15 Pro e Ultra podem ter estrutura de titânio

A mudança pode parecer pequena, mas talvez traga mais dicas sobre mudanças que podem acontecer no restante da linha. Afinal, se o modelo básico vai receber uma característica da versão avançada, a versão avançada vai mudar para ficar diferente, né?

Existem rumores que apontam que a Apple vai adotar uma estrutura de titânio no iPhone 15 Pro e em um possível iPhone 15 Ultra, uma novidade que chegaria para ser o aparelho mais avançado da família.

Além disso, o acabamento texturizado pode ajudar quem usa o iPhone sem case. Ele dá mais firmeza na hora de segurar, evitando que o aparelho escorregue pelas mãos.

Com informações: TechRadar
iPhone 15 pode ganhar traseira com mesmo acabamento da versão Pro

iPhone 15 pode ganhar traseira com mesmo acabamento da versão Pro
Fonte: Tecnoblog

WhatsApp permite silenciar ligações de números desconhecidos

WhatsApp permite silenciar ligações de números desconhecidos

Demorou, mas chegou: usuários de WhatsApp poderão silenciar aquelas ligações provenientes de números desconhecidos. A nova função foi anunciada nesta terça-feira (20) por Mark Zuckerberg. Para ativá-la, basta seguir o seguinte caminho no aplicativo para celular: Configurações → Privacidade → Chamadas → Silenciar números desconhecidos. Aqui já está funcionando.

WhatsApp permite silenciar ligações de números desconhecidos (Imagem: Vitor Pádua/Tecnoblog)

Como de costume, é preciso ter a versão mais atual do WhatsApp para Android ou iPhone. Desde ontem (19), porém, a equipe do Tecnoblog notou a possibilidade de ativar a função.

De acordo com o WhatsApp, o recurso de Silenciar Números Desconhecidos foi projetado “ajuda a excluir automaticamente spam, fraudes e chamadas de pessoas desconhecidas”. As chamadas não farão o smartphone tocar, mas poderão ser consultadas diretamente na tela de últimas ligações.

Ajuste no WhatsApp para silenciar números desconhecidos (Imagem: Thássius Veloso/Tecnoblog)

Mais privacidade

Vamos combinar que o recurso era bastante necessário. Faz tempo que as chamadas de WhatsApp se transformaram numa real alternativa às ligações via rede de telefonia. Normalmente o áudio é melhor por trafegar via internet e ainda há maior segurança graças à criptografia de ponta a ponta.

Por falar em segurança, o WhatsApp também anuncia hoje uma nova central de verificação de privacidade. Esta área do aplicativo traz orientações e dicas interessantes para quem quer conhecer todas as funções presentes no app. Dentre elas estão a visualização única e autenticação de dois fatores.

Com informações: WhatsApp (canal no YouTube)
WhatsApp permite silenciar ligações de números desconhecidos

WhatsApp permite silenciar ligações de números desconhecidos
Fonte: Tecnoblog

Apple ProRAW: o que é o formato RAW de fotos do iPhone

Apple ProRAW: o que é o formato RAW de fotos do iPhone

Apple ProRAW é um formato de imagem “cru”, que reúne os dados brutos do sensor da câmera, e acrescenta informações de fotografia computacional do iPhone Pro. Sua aplicação gera fotos com amplo controle sobre cor, balanço de branco e outros parâmetros.

ProRAW no iPhone 14 Pro (imagem: Emerson Alecrim/Tecnoblog)

ÍndiceHistórico do Apple ProRAWComo funciona o Apple ProRAWComo abrir um arquivo Apple ProRAWVantagens do Apple ProRAWDesvantagens do Apple ProRAWComo ativar o ProRAW no iPhone?Como converter Apple ProRAW para JPG?

Histórico do Apple ProRAW

A Apple anunciou o formato ProRAW em outubro de 2020. O recurso foi introduzido no iPhone 12 Pro e no iPhone 12 Pro Max, sendo compatível inicialmente com o iOS 14.3 e o macOS 11.1.

O formato foi desenvolvido para permitir que o usuário faça ajustes ou edições de nível profissional nas fotos RAW registradas com o iPhone, seja com softwares nativos, como o aplicativo Fotos, seja com soluções de terceiros. O recurso está disponível apenas nos modelos Pro da linha.

Câmeras traseiras do iPhone 12 Pro Max (imagem: Paulo Higa/Tecnoblog)

Como funciona o Apple ProRAW

O formato ProRAW reúne a qualidade de arquivo bruto do padrão RAW com os recursos de fotografia computacional da Apple, como o Photonic Engine, o Deep Fusion e o Smart HDR. As imagens resultantes são salvas em DNG, extensão para arquivos RAW criada pela Adobe.

Uma foto ProRAW é gerada depois de passar por várias etapas de composição conduzidas pelo processador de imagem, o Neural Engine (motor para redes neurais) e outros componentes do SoC do iPhone.

O resultado é uma arquivo que mantém as caraterísticas registradas pelo sensor da câmera, mas acrescenta informações de equilíbrio entre áreas escuras e claras, redução de ruído e coloração realista, mesmo sem o arquivo ter passado por pós-processamento.

Como as informações originais da imagem são preservadas, o usuário tem mais flexibilidade para fazer ajustes precisos em uma foto ProRAW do que se usasse um formato de imagem como o JPEG.

Camadas do ProRAW (imagem: reprodução/Apple)

Como abrir um arquivo Apple ProRAW

O iPhone exibe arquivos ProRAW no aplicativo Fotos. Quando a imagem é visualizada ali, a identificação “RAW” aparece acima dela. Na parte superior, basta tocar em “Editar” para ajustar iluminação, exposição e outros parâmetros.

Como fotos ProRAW são salvas em DNG, formato compatível com muitos editores de imagens, elas podem ser editadas em aplicativos como Adobe Lightroom e Pixlr no Android, Microsoft Fotos no Windows, Photomator para macOS e iOS, e RawTherapee para Linux.

Arquivo ProRAW no aplicativo Fotos (imagem: reprodução/Apple)

Vantagens do Apple ProRAW

O anúncio do ProRAW foi recebido com empolgação por fotógrafos profissionais e entusiastas por conta dos benefícios que o formato oferece. Entre eles estão:

Sem perda de informação: arquivos ProRAW incluem todas as informações capturadas pelo sensor de imagem do iPhone e podem revelar detalhes que seriam perdidos em um JPEG;

Maior controle de edição: as informações preservadas pelo formato ProRAW possibilitam ajustes minuciosos em parâmetros como exposição, brilho, saturação e sombreamento;

Alta qualidade de imagem: os recursos de fotografia computacional do iPhone permitem que uma foto ProRAW ressalte detalhes e faça eliminação consistente de ruídos, mesmo sob condições reduzidas de iluminação;

Rapidez de composição: os recursos de hardware e software do iPhone permitem que fotos ProRAW sejam geradas com rapidez, permitindo até registros sequenciais.

Fazendo foto com o Apple ProRAW ativado (imagem: Emerson Alecrim/Tecnoblog)

Desvantagens do Apple ProRAW

Algumas características do ProRAW fazem o formato não ser apropriado em todas as situações. As principais são:

Tamanhos de arquivo grandes: uma foto em ProRAW tem dezenas de megabytes e ocupa mais espaço de armazenamento que uma foto HEIC comprimida pelo iPhone;

Não funciona com Live Photos: o modo do iPhone que registra fotos com efeito de movimento não funciona se o ProRAW estiver ativado;

Ajustes automáticos podem desagradar: a fotografia computacional pode gerar efeitos indesejados sob determinadas circunstâncias, deixando a imagem menos interessante para trabalhos profissionais ou até redes sociais;

Não disponível nos iPhones mais baratos: o modo ProRAW só tem compatibilidade com os modelos Pro do iPhone, que são mais caros, a exemplo do iPhone 13 Pro Max e do iPhone 14 Pro;

Não funciona para gravação de vídeo: o ProRAW é específico para fotos. Contudo, a Apple lançou o formato ProRes para quem busca mais flexibilidade de ajustes em filmagens.

Arquivo ProRAW com 109 megabytes (imagem: Emerson Alecrim/Tecnoblog)

Como ativar o ProRAW no iPhone?

O ProRAW pode ser ativado em Ajustes -> Câmera -> Formatos. Ali, basta habilitar o botão Apple ProRAW. Na opção imediatamente abaixo é possível escolher a resolução da imagem. No iPhone 14 Pro, as opções são 12 MP e 48 MP.

Ativando o Apple ProRAW (imagem: Emerson Alecrim/Tecnoblog)

No aplicativo de câmera, basta tocar em RAW no modo Foto para a imagem ser registada em ProRAW.

Como converter Apple ProRAW para JPG?

Pressione a imagem ProRAW no aplicativos Fotos até um menu aparecer. Ali, toque em Compartilhar. Na tela que surgir, escolha Salvar em Arquivos para guardar o arquivo na pasta desejada.

Com o aplicativo Arquivos, vá a essa foto e toque nela até um menu aparecer. Nele, vá em Ações Rápidas -> Converter Imagem. Por fim, escolha JPEG e defina o tamanho da imagem.
Apple ProRAW: o que é o formato RAW de fotos do iPhone

Apple ProRAW: o que é o formato RAW de fotos do iPhone
Fonte: Tecnoblog

Ferramenta da Meta recria voz da pessoa em questão de segundos

Ferramenta da Meta recria voz da pessoa em questão de segundos

A Meta anunciou o desenvolvimento de uma ferramenta de inteligência artificial capaz de gerar falas humanas. O modelo precisa ser abastecido com algumas frases gravadas pelo usuário. Depois, o Voicebox permite criar novos áudios a partir de texto escrito. O próprio Mark Zuckerberg surgiu, num clipe divulgado via Instagram, falando bom português – com direito a um “s” bastante carioca na palavra “ todos”. Tudo gerado por IA.

Em 2023, principal foco da Meta está na inteligência artificial (Imagem: Vitor Pádua/Tecnoblog)

De acordo com o conglomerado digital, bastam apenas 2 segundos de amostra de áudio para que o sistema consiga produzir novas falas. A ideia é realizar o text-to-speech para evitar os transtornos de eventualmente regravar todo o material de áudio.

Ainda segundo a empresa, a tecnologia permitiria que pessoas com deficiência visual ouçam as mensagens dos amigos ou que personagens não-jogáveis de games – os famosos NPCs – tenham voz. O Voicebox também poderia fornecer sons naturais para assistentes de voz.

Confira em ação no vídeo abaixo:

Edição fácil de conteúdo

Outro ponto importante diz respeito à edição de conteúdo. No exemplo, Zuckerberg está gravado um áudio quando se escuta uma buzina. A ferramenta, porém, consegue “limpar” o material. Hoje em dia existem softwares profissionais e outros amadores com função similar, então resta saber de que forma o recurso chegaria aos aplicativos da Meta.

Aliás, a empresa não fez nenhum anúncio oficial da implementação do Voicebox no Instagram, WhatsApp ou Facebook. Por enquanto, tudo leva a crer que Zuckerberg deseja apenas demonstrar os avanços que a empresa está fazendo no campo da IA generativa. Este é o principal foco do momento, junto com o desenvolvimento (de longo prazo) em tecnologias de metaverso.

Concorrência também está agindo

A Meta não está sozinha na pesquisa e desenvolvimento de IA generativa para voz. O anúncio desta sexta-feira me lembrou do Vall-E, sistema apresentado pela Microsoft em janeiro com a proposta de receber áudios curtos, da própria pessoa falando, para gerar novos arquivos.

O Vall-E requer uma amostra de apenas três segundos (imagem: divulgação/Microsoft)

Já a Apple apresentou um recurso batizado de Personal Voice na WWDC 2023, realizada na semana passada. Ele estará no iOS 17. Como parte dos esforços de acessibilidade, usuários poderão ler em voz alta um script de frases. Depois, o sistema do iPhone passará a recriar a voz sintetizada da pessoa. A tecnologia da Apple, porém, requer cerca de 15 minutos de gravação original.

Com informações: Meta, Facebook Research e 9to5 Mac
Ferramenta da Meta recria voz da pessoa em questão de segundos

Ferramenta da Meta recria voz da pessoa em questão de segundos
Fonte: Tecnoblog

Google Lens agora é capaz de reconhecer problemas de pele

Google Lens agora é capaz de reconhecer problemas de pele

Combine as câmeras de alta resolução dos celulares atuais com o visão computacional do Google, e você terá uma importante ferramenta para informar sobre eventuais problemas de saúde. O Google informou nesta semana que o sistema Google Lens é capaz de detectar diversas condições relacionadas à pele do usuário.

Marca do Google (Imagem: Vitor Pádua/Tecnoblog)

Tudo começa com o app oficial do Google para Android ou iPhone. Ao enviar uma imagem na área de busca visual, a plataforma apresenta fotos similares àquelas que você mandou.

Na demonstração, a tela do Google Lens diz que “os resultados da busca são apenas informacionais e não um diagnóstico”. Abaixo surgem opções de saber mais sobre dermatite atópica e psoríase, entre outras situações. A própria interface do app do Google lembra que é precisa buscar um médico para receber todas as orientações.

Busca por foto de pele no Google Lens retorna resultado com doenças dermatológicas (Imagem: Divulgação/Google)

O potencial da visão computacional

Conforme lembra o portal The Verge, o Google está trabalhando em projetos de inteligência artificial para reconhecimento de imagens há anos. Desde 2021, as ferramentas da empresa são capazes de identificar problemas de saúde relacionados com pele, cabelo e unhas.

A chamada visão computacional tem um baita potencial de auxiliar na vida das pessoas, uma vez que traz informações complementares para preocupações reais dos usuários. Alguns deles, aliás, que normalmente não teriam condições de buscar um médico. Por outro lado, quantas não foram as vezes que pesquisamos por um determinado sintoma no Google e esbarramos em diagnósticos assustadores (e descabidos)? Já aconteceu muito comigo.

Outro ponto a se considerar tem a ver com o viés dos algoritmos. Muitos dos datasets atuais usados para treinar estes sistemas levam em consideração imagens de pessoas de pele mais clara, o que reduz sua eficácia quando as ferramentas são consultadas por usuários com tons de pele mais escuros.

Mais usabilidade

Por fim, mas não menos importante: a busca a partir de uma foto pode ser muito mais interessante do que tentar descrever em palavras aquilo que está diante de ti.

Com informações: The Verge e Google
Google Lens agora é capaz de reconhecer problemas de pele

Google Lens agora é capaz de reconhecer problemas de pele
Fonte: Tecnoblog

Apple Vision Pro: eu usei o aparelho VR pela primeira vez

Apple Vision Pro: eu usei o aparelho VR pela primeira vez

Finalmente a Apple fez o lançamento do Apple Vision Pro e ingressou no mundo da realidade virtual. O dispositivo foi apresentado na semana passada, durante a abertura da conferência WWDC 2023. Algumas poucas pessoas puderam colocar o aparelho na cabeça e fazer testes. Eu tive esse privilégio e vim aqui contar por que o Vision Pro é inigualável – tanto em recursos, quanto no preço de US$ 3.500, o que dá mais de R$ 17 mil em conversão direta.

Apple Vision Pro na sede da Apple nos Estados Unidos (Imagem: Thássius Veloso/Tecnoblog)

Primeiro de tudo, é preciso levar em consideração que existiam muitos rumores em relação ao próximo dispositivo da maçã. Como ele seria? Teria mesmo um fio para conectar capacete à bateria? Haveria integração com o iPhone? Todos estes pontos foram explicados durante a apresentação de Tim Cook e comparsas da maçã. Depois disso começou a jornada para experimentar o equipamento, que só chega ao mercado norte-americano no começo do ano que vem.

Ah, antes que você pergunte: não há qualquer previsão de preço ou de data de lançamento no Brasil. Mas, como a gente ama tecnologia, não me custa relatar o que está vindo por aí.

Primeiro contato com o Vision Pro

O teste de aproximadamente 25 minutos aconteceu no Apple Park, a nave-mãe da Apple na cidade de Cupertino, nos Estados Unidos. Ao chegar ao ambiente, fui convidado a fazer um escaneamento do meu rosto e das minhas orelhas. Isso ocorre num app que lembra bastante o Face ID e leva poucos segundos. Depois, passei por uma optometrista que utilizou um aparelho especial para checar meus óculos de grau (tenho miopia e astigmatismo).

A etapa seguinte foi esperar uns bons 10 minutos. A equipe da Apple me levou para uma sala com representantes da empresa. Ela tinha por volta de 4 x 4 metros, com uma mesa de centro e um sofá. Somente eu me sentei na poltrona e não havia nenhuma TV diante de mim. Já era uma pista dos passos seguintes.

Eu tinha visto o Vision Pro de perto no dia anterior, no Steve Jobs Theater, mas só agora teria a chance de observá-lo mais de perto. Toda a estrutura é muito bem acabada, numa junção de vidro, plástico e outros elementos que aparentam ser de primeira linha. Você não tem a impressão de manusear algo barato, muito pelo contrário.

Design de milhões

Apple Vision Pro tem estrutura modular (Imagem: Divulgação/Apple)

Logo nesta etapa, fica evidente uma escolha de design do time da maçã. Eles me explicaram que o Apple Vision Pro tem um formato modular que permite, por exemplo, trocar o visor convencional por outro com lentes de grau simplesmente recorrendo ao magnetismo (eu adoro este princípio da física, diga-se de passagem!). Ainda não está claro de que forma a empresa irá comercializar o headset, mas já se sabe que ela mantém uma parceria com a Zeiss.

O processo de colocar os óculos VR levou alguns instantes principalmente por ser necessário ajustar as tiras que passam por cima e por trás da cabeça. O Vision Pro pesa em torno de 450 gramas, bem pouquinho. Na minha experimentação, não senti incômodo depois dos quase 30 minutos. Outros jornalistas se queixaram de que o aparelho começa a pesar com o passar do tempo.

Muita tecnologia no dispositivo VR

Falemos agora da tecnologia por trás do áudio e do vídeo. Sim, estamos falando de som espacial, que dá a impressão de 360 graus. As músicas, efeitos sonoros, chamadas de voz etc. se “movimentam” conforme a posição do usuário. Já as duas telas diante de cada olho, cada qual com definição equivalente a uma TV 4K, de acordo com a fabricante, são realmente impressionantes no quesito qualidade.

Um dos trunfos da Apple está em reduzir a latência do equipamento ao mínimo. Todos os movimentos com a cabeça são rapidamente detectados pelo Vision Pro para que a ação equivalente ocorra dentro do universo digital. Esta é outra reclamação antiga de usuários de headsets de realidade virtual/mista. Quanto menor a latência, maior o conforto e a imersão.

Tela inicial do Apple Vision Pro; os ícones flutuam pelo espaço, com direito a sombras e efeitos de luz (Imagem: Divulgação/Apple)

Aliás, por falar em realidade mista: as muitas câmeras do Vision Pro permitem criar o efeito de passthrough, conforme chamam em inglês. Eu não encontrei nenhuma boa tradução no nosso idioma, mas na prática significa que o usuário tem a impressão de estar vendo “atrás” das telas do equipamento. Quando o pus pela primeira vez, eu vi exatamente a sala onde eu estava e as pessoas que ali me acompanhavam. Não existe aquilo de imediatamente cair num outro universo completamente diferente.

Passthrough de primeira

Ao estender as mãos diante do meu corpo, as vi pelo Apple Vision Pro. Trata-se de uma visualização mediada por uma tela, mas você se esquece disso… até que aciona a Coroa Digital, uma tecla lateral que puxa os ícones de aplicativos. Nesta hora você se recorda de que o Vision Pro é mais do que um conjunto de câmeras de alta qualidade.

Em sua essência, é um aparelho em que a Apple explora o sistema visionOS, também anunciado na WWDC 2023. Todos os elementos visuais em 3D têm profundidade, sombra e interagem com o mundo real. Os criadores do aparelho conseguiram integrar digital e físico de uma maneira que eu jamais vi num produto similar.

Dinossauro “invade” a sala em degustação do Apple Vision Pro (Imagem: Divulgação/Apple)

Quem acompanha a evolução da realidade virtual certamente já embarcou em experimentações que mostram filmes imersivos, cenários paradisíacos, salas de cinema privativas, dinossauros em altíssima qualidade. Tudo isso tem no Apple Vision Pro. Eu diria que a grande disrupção está em integrar hardware e software para que a experiência beire o impecável. Estamos falando de um dispositivo confiável, seguro e que funciona com vários aplicativos disponíveis desde que ele sai da caixa.

O sistema visionOS

Para além disso, a fabricante criou um novo sistema específico para este fim e o apresentou exatamente aos profissionais que irão se interessar (será?) em produzir novas experiências para o headset de realidade virtual. Existem frameworks, APIs e orientações formais para que os devs comecem a brincar desde agora com apps de Vision Pro. E se não quiserem fazer algo completamente novo, poderão usar os programas do iPhone e do iPad (principalmente este último) como base para marcar presença neste admirável (?) mundo novo.

Eu tive a oportunidade de conversar com alguns programadores durante a WWDC. Todos estavam empolgados com a ferramenta liberada pela Apple para simular apps dentro do Vision Pro, mesmo que a pessoa não tenha o dispositivo (ele não está à venda!). Por outro lado, vários destes profissionais admitiram que será difícil atuar no visionOS quando têm outras urgências, equipes pequenas. Eles ainda mencionam o mercado incerto, uma vez que parece ser um dispositivo de nicho.

Apple Vision Pro – WWDC 23 (Imagem: Divulgação/Apple)

Alguns gargalos do Apple Vision Pro

Nenhum produto é perfeito e o Apple Vision Pro não foge à regra. Para mim não ficou exatamente claro de que forma os seres humanos vão interagir entre si dentro do ambiente virtual. Eu mesmo testei uma chamada de FaceTime com vídeo de uma persona – ou seja, uma pessoa de carne osso cuja representação gráfica virtual, conforme capturada por outro Vision Pro, foi exibida dentro do visionOS. É bem feito, um avanço em relação a outros avatares que vimos por aí. No entanto, esbarra no Vale do Estranho. É esquisito de olhar e de interagir.

A imprensa gringa levantou o ponto do isolamento, uma vez que a maioria das situações retratadas na WWDC incluíam pessoas solitárias em casa ou no escritório. Seria o Vision Pro uma válvula de escape ou um novo dispositivo a la Black Mirror, que irá alimentar o nosso vício por muito feed e pouca interação humana? Não há como saber.

Apple Vision Pro: headset VR e bateria (Imagem: Thássius Veloso/Tecnoblog)

Do ponto de vista prático, também é questionável que a bateria fique conectada por um fio lateral. Mais ainda pensar que a autonomia de uso dura cerca de 2 horas, bem pouco quando consideramos que qualquer filme de herói hoje em dia dura mais.

Apenas o primeiro passo

Ninguém tem dúvidas de que a Apple está apenas começando sua história dentro da realidade mista. O Vision Pro ainda vai mudar muito nos próximos anos. Este primeiro modelo apresentado na WWDC impressiona pela qualidade técnica, mas não é só disso que vive a tecnologia. Precisamos observar os próximos passos da companhia no sentido de atrair clientela e desenvolvedores.

Não creio que o Vision Pro será o próximo iPhone. Ele não resolve nenhum problema vivenciado por bilhões de pessoas. Por outro lado, tem potencial para se tornar uma nova fonte de receita para a Apple (pouco se falou, aliás, sobre itens comercializados dentro do universo 3D). Será necessário comunicar muito bem quais situações do dia a dia ficam melhores quando a pessoa decide usar um headset VR e não um smartphone, um tablet ou um computador.

O tempo dirá se a excelência técnica e o sofisticado sistema operacional do Apple Vision Pro serão suficientes para encantar os consumidores.

Apple Vision Pro oferece imersão completa em cenas de tirar o fôlego (Imagem: Divulgação/Apple)

Algumas curiosidades

O visionOS sabe exatamente onde você está olhando. É assim que o usuário seleciona um botão, por exemplo. E basta o gesto de juntar rapidamente polegar e indicador para fazer o clique.

Da mesma forma, a pessoa pode juntar prolongadamente os dois dedos para movimentar objetos 3D.

Numa das experiências, uma borboleta digital pousou no meu dedo. Esta técnica – chamada em inglês de occlusion – está muito a frente do que vi em aparelhos similares da concorrência (principalmente a Meta).

Na frente do Vision Pro há uma tela que exibe os olhos da pessoa, para que o headset não se torne uma barreira. Não foi possível ver o recurso em uso.

Também não foi possível criar a minha própria persona dentro do visionOS.

Só pude testar uma interação online com outra pessoa. Ela estava numa espécie de chamada de vídeo do FaceTime.

Tenho dúvidas sobre como será a representação 3D dos usuários que estiverem junto contigo dentro dos ambientes virtuais do visionOS. Terão pernas, por exemplo?

Thássius Veloso viajou para Cupertino, nos Estados Unidos, a convite da Apple

Apple Vision Pro: eu usei o aparelho VR pela primeira vez

Apple Vision Pro: eu usei o aparelho VR pela primeira vez
Fonte: Tecnoblog

Photonic Engine: por dentro da técnica de fotografia computacional do iPhone

Photonic Engine: por dentro da técnica de fotografia computacional do iPhone

Photonic Engine é uma tecnologia de fotografia computacional que melhora as cores e o nível de detalhes nas câmeras do iPhone por meio de aprendizado de máquina. O recurso foi lançado pela Apple junto à linha iPhone 14.

iPhone 14 Pro e 14 Pro Max têm câmeras com Photonic Engine (Imagem: Vitor Pádua/Tecnoblog)

ÍndiceComo funciona o Photonic Engine no iPhone?Qual é a diferença entre Photonic Engine e Deep Fusion?Quais iPhones têm Photonic Engine?Como ativar ou desativar o Photonic Engine?Quando o Photonic Engine foi lançado?

Como funciona o Photonic Engine no iPhone?

O Photonic Engine usa machine learning para processar os pixels das fotos capturadas pelo iPhone e aprimorar os detalhes, textura e ruído das imagens.

A captura de uma foto no iPhone começa na lente, que projeta a luz em um dos sensores CMOS do aparelho. Até nove fotos são tiradas em sequência, e depois passam pelo processador de imagem (ISP), Neural Engine e outras partes do chip do iPhone (também conhecido como SoC) para convertê-las em uma única imagem digital.

Múltiplas imagens são capturadas em sequência e depois “fundidas” no Deep Fusion e Photonic Engine (Imagem: Reprodução/Apple)

A imagem pode ser comprimida com tecnologias como HEIC e JPEG, que reduzem o tamanho do arquivo e facilitam seu compartilhamento na internet, ou ser fornecida no formato RAW, que mantém todos os dados do sensor. O Photonic Engine atua antes do processo de compressão.

A Apple não detalha os métodos usados no Photonic Engine. Por meio do aprendizado de máquina, um ISP pode ser treinado para restaurar uma textura que não foi bem capturada pelo sensor, ou entender o conteúdo da foto para aplicar os melhores ajustes de contraste, nitidez e equilíbrio de cores, por exemplo.

Photonic Engine, tecnologia de fotografia computacional lançada pela Apple em setembro de 2022 (Imagem: Reprodução/Apple)

Qual é a diferença entre Photonic Engine e Deep Fusion?

O Deep Fusion é um recurso de fotografia computacional presente em câmeras de iPhone, e usa aprendizado de máquina para melhorar a qualidade das fotos por meio de uma combinação de várias capturas. Já o Photonic Engine é uma evolução do Deep Fusion.

Segundo a Apple, o Photonic Engine aplica o Deep Fusion em uma etapa anterior do processamento de imagem para preservar detalhes e texturas.

Caron Thor, gerente sênior de qualidade de imagem de câmeras da Apple, anunciou que o Photonic Engine é “o maior passo até hoje em desempenho com baixa iluminação”. A promessa é melhorar a captura de luz em até 2x nas selfies, 2x na lente ultrawide e 2,5x na câmera principal do iPhone 14.

Quais iPhones têm Photonic Engine?

Os iPhones lançados a partir de setembro de 2022 têm câmeras com Photonic Engine. A lista de modelos com suporte ao recurso inclui:

iPhone 14

iPhone 14 Plus

iPhone 14 Pro

iPhone 14 Pro Max

Como ativar ou desativar o Photonic Engine?

O Photonic Engine não pode ser ligado ou desligado manualmente pelo usuário. Ele é usado em todas as câmeras dos iPhones compatíveis sempre que o usuário tira uma foto e pode trazer resultados mais significativos quando a iluminação for baixa.

Quando o Photonic Engine foi lançado?

O Photonic Engine foi lançado em setembro de 2022, no mesmo evento em que a Apple anunciou as linhas iPhone 14 e iPhone 14 Pro. Os celulares Pro receberam pela primeira vez uma câmera principal de 48 megapixels com pixel binning, substituindo a resolução de 12 MP usada em sensores de imagem desde o iPhone 6s, de 2015.

Photonic Engine: por dentro da técnica de fotografia computacional do iPhone

Photonic Engine: por dentro da técnica de fotografia computacional do iPhone
Fonte: Tecnoblog

Disputa entre Apple e Gradiente pelo nome iPhone é suspensa no STF

Disputa entre Apple e Gradiente pelo nome iPhone é suspensa no STF

A disputa judicial entre Apple e Gradiente pela marca iPhone será prolongada no Supremo Tribunal Federal. O julgamento para definir quem tem direito sobre o nome foi suspenso após o ministro Alexandre de Moraes pedir vistas do processo. Com isso, a disputa judicial pode ficar até 90 dias sem movimentações.

Disputa entre Apple e Gradiente pela marca iPhone é suspensa no STF (Imagem: Carlos Moura/SCO/STF)

No momento do pedido de vistas, a Apple contava com dois votos a favor e um voto contra — além de uma declaração de suspeição de Edson Fachin. Votaram a favor da empresa americana os ministros Luiz Fux e Luís Roberto Barroso. O voto em defesa da Gradiente foi de Dias Toffoli, relator do caso.

Julgamento Apple x Gradiente será retomado em até 90 dias

De acordo com o regimento do STF, um processo que foi suspenso por pedido de vista deve ser devolvido em até 90 dias. Com isso, Alexandre de Moraes necessita retornar o julgamento com o seu voto até 7 de setembro. Todavia, pela data ser feriado, o prazo máximo para o julgamento ser retomado é 8 de setembro. O prazo original da votação encerraria na segunda-feira (12).

Na mudança do regimento do STF, se até o prazo final o processo não for devolvido, o julgamento é retomado automaticamente. Assim, outros ministros podem seguir com seus votos. No momento, o Supremo conta com dez membros e restam seis votos. Com a suspeição de Fachin, não haverá empate — que levaria a um voto de minerva da presidente da Corte, a ministra Rosa Weber.

Gradiente Iphone Neo One foi um dos dois Iphones da empresa brasileira (Imagem: Divulgação/Gradiente)

Ministro Dias Toffoli votou a favor da Gradiente

O único voto favorável à Gradiente veio do ministro Dias Toffoli, que é o relator do recurso pedido pela empresa brasileira. Toffoli justificou que a Gradiente “obteve o registro validamente expedido pelo INPI, consoante o disposto na legislação nacional, para a exploração exclusiva de seu sinal distintivo no Brasil”. Assim, o ministro defende que a empresa tem direito de usar a marca “Gradiente Iphone”.

Os ministros Luiz Fux e Luís Roberto Barroso votaram contra o recurso da empresa brasileira. Para o primeiro, a proibição do nome “Iphone” pela Gradiente deve ser mantida. Já Barroso afirma que não há impedimentos para a empresa brasileira usar a marca “Gradiente Iphone”, somente o nome “Iphone” isolado. O Tecnoblog entrou em contato com o STF para entender a suspeição do ministro Edson Fachin, mas não teve resposta até a publicação.
Disputa entre Apple e Gradiente pelo nome iPhone é suspensa no STF

Disputa entre Apple e Gradiente pelo nome iPhone é suspensa no STF
Fonte: Tecnoblog

iPhone 13 de 128 GB está com mais de R$ 2 mil de desconto em relação à loja da Apple

iPhone 13 de 128 GB está com mais de R$ 2 mil de desconto em relação à loja da Apple

Oferta encerrada
Para não perder os próximos achados, participe dos nossos grupos no WhatsApp e Telegram!

O celular de 2021 da Apple é uma ótima opção para quem busca um smartphone da marca com bom desempenho e qualidade fotográfica. Em promoção, ele vale ainda mais a pena. Na Fast Shop, você encontra o iPhone 13 de 128 GB por R$ 4.279 à vista. A oferta está disponível para o modelo na cor estelar (branco).

iPhone 13 está em oferta (Imagem: Divulgação/Apple)

O iPhone 13 com armazenamento de 128 GB foi lançado por R$ 6.499, preço válido até hoje na loja da Apple. No entanto, é possível pagar menos no smartphone em outras lojas do varejo. Atualmente, a Fast Shop está com uma das melhores ofertas até o momento onde o modelo na cor estelar está saindo por R$ 4.279 para pagamentos à vista. Com isso, você consegue um desconto de R$ 2.220 equivalente a 34,16% em relação à Apple.

iPhone 13 de 128 GB por R$ 4.279 na Fast Shop à vista

Economia nas suas compras
O Achados do TB seleciona diariamente as melhores ofertas e recomenda apenas o que está com o preço baixo de verdade. Para acompanhar e não perder mais nenhuma promoção que realmente valha a pena, acompanhe a gente no grupo do WhatsApp ou no canal do Telegram.

iPhone 13 lançado em 2021 traz configurações iguais ao sucessor

Em 2022, a Apple lançou o iPhone 14 que traz alguns componentes parecidos com o do iPhone 13. 

O primeiro deles é o A15 Bionic que se diferencia apenas no número de núcleos de GPU: o modelo de 2021 traz quatro e o iPhone 14, cinco. Apesar disso, o desempenho de CPU é praticamente idêntico o que significa que você não terá problema ou engasgos nas suas tarefas.

O segundo componente que faz parte dos dois iPhones é a tela OLED com 6,1 polegadas e mesma resolução de 1170 x 2532 pixels. Além disso, brilho e taxa de atualização de 60 Hz são os mesmos em ambos modelos.

Os dois celulares da Apple também vêm com Ceramic Shield para deixá-los mais resistentes e certificação IP68 que permite que os aparelhos sejam mergulhados a uma profundidade de seis metros por até 30 minutos sem danificá-los.

Ainda de acordo com a Apple, houve um upgrade na bateria do iPhone 14 que oferece uma autonomia de até 16 horas em streamings de vídeo. Mas, comparado ao iPhone 13, também não vemos tanta diferença assim já que os testes afirmam que o modelo alcança 15 horas. Ou seja, o usuário não deve ser impactado no dia a dia com isso. 

Apesar da câmera do iPhone 13 não ser igual a do seu sucessor, você ainda pode se surpreender com a qualidade das fotos que o celular de 2021 entrega. A combinação de uma câmera dupla de 12 megapixels e uma câmera frontal com a mesma resolução permite que o iPhone 13 capture imagens com facilidade em qualquer ambiente e entregue um excelente resultado.

Por fim, é importante ressaltar que a Apple é conhecida por sua política de atualizações que supera a de seus concorrentes. Dessa forma, seu iPhone 13 deve receber novas versões de seu sistema operacional por muitos anos ainda.
Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.iPhone 13 de 128 GB está com mais de R$ 2 mil de desconto em relação à loja da Apple

iPhone 13 de 128 GB está com mais de R$ 2 mil de desconto em relação à loja da Apple
Fonte: Tecnoblog