Category: Pixel

O que esperar do Google I/O 2024: anúncio do Android 15 e avanços no Gemini

O que esperar do Google I/O 2024: anúncio do Android 15 e avanços no Gemini

Apresentação de abertura do Google I/O traz as maiores notícias da empresa no ano (Imagem: Vitor Pádua / Tecnoblog)

O Google I/O 2024 começa no dia 14 de maio. A conferência anual da empresa tem foco nos desenvolvedores, mas sempre traz novidades sobre produtos e serviços na apresentação de abertura. Neste ano, devemos ter notícias sobre Android 15 e Gemini, atualizações para outros serviços da empresa e nada de aparelhos Pixel.

A nova versão do Android é sempre anunciada no I/O. A primeira versão beta do Android 15, inclusive, já está disponível. Já o Gemini é a grande aposta do Google para surfar a onda da inteligência artificial generativa.

Sundar Pichai, CEO da empresa, no Google I/O 2022 (Imagem: Divulgação / Google)

A empresa geralmente aproveita o evento para apresentar alguma coisa relacionada à linha Pixel, mas este ano deve fugir à regra: o Pixel 8a já foi lançado, e o novo Pixel Fold deve ficar para depois. Produtos como Wear OS, Google TV e Android Auto podem receber novidades.

Android 15 deve ser anunciado

O Android é um dos principais nomes do keynote de abertura do Google I/O, e isso não deve mudar em 2024.

A versão 15 do sistema operacional deve ser anunciada oficialmente. A primeira versão beta já foi liberada e traz algumas (pequenas) novidades:

Privacy Sandbox: o Android 15 deve contar com a versão mais recente do projeto, que quer equilibrar privacidade de usuários e segmentação de anúncios

Gravação parcial de tela: o sistema poderá gravar apenas um aplicativo ou pedaço do display, sem precisar registrar e compartilhar tudo que é exibido

Arquivamento de apps para economizar espaço

Melhorias na conectividade via satélite

Controles adicionais de câmera

Novo modo de eficiência de energia

Tela de bloqueio em modo paisagem deve ser uma das novidades do Android 15 (Imagem: Reprodução / Android Authority)

Apesar de os testes já terem começado, as principais mudanças devem ser anunciadas mesmo no Google I/O. Além disso, o Android 15 Beta 2 pode ser liberado.

Entre rumores e especulações, temos widgets na tela de bloqueio dos tablets, redesign da barra de status, informações sobre a saúde da bateria, modo escuro em todos os apps, melhorias na interface em modo paisagem e gerenciamento de notificações aprimorado.

Google continua sua aposta na IA com o Gemini

A inteligência artificial tem dominado as notícias sobre tecnologia nos últimos anos, e o Google deve participar desta conversa com novidades sobre o Gemini.

Uma possibilidade é que a empresa anuncie seus planos para o Gemini substituir de vez o Google Assistente. Atualmente, essa opção existe no Android, mas os resultados não são tão bons — o chatbot tem problemas para resolver tarefas simples, como tocar música ou desligar luzes.

Gemini é a grande aposta do Google para concorrer com modelos da OpenAI (Imagem: Divulgação/Google)

Outros rumores apontavam para uma assistente de IA chamada Pixie, que usaria o Gemini como base e seria exclusiva para os aparelhos da linha Pixel. Como faz tempo que esse assunto não surge nos vazamentos, é improvável que aconteça.

A IA também deve aparecer em produtos como Busca, Chrome, Maps e G Suite, além de recursos de acessibilidade e projetos de saúde. Outra aposta são novas versões dos modelos e mais usos sem depender da nuvem no Pixel 8 Pro.

Pixel 8a “queimou a largada”

O Google I/O 2024 não deve trazer novos aparelhos da linha Pixel, como costumava acontecer em anos anteriores.

A empresa anunciou o Pixel 8a, versão mais acessível do smartphone de topo de linha do ano passado, uma semana antes do evento. Em comum, Pixel 8 e Pixel 8a compartilham várias características, como o chip Tensor G3. A principal diferença está nas câmeras: os sensores usados no Pixel 8a são menores.

O Pixel 8a custa US$ 499 (cerca de R$ 2.565, em conversão direta), US$ 200 a menos que o Pixel 8.

Já o Pixel Fold, grande estrela do Google I/O 2023, deve passar por uma reformulação maior. A nova geração deve ser apresentada no segundo semestre, em um evento dedicado a hardware.

Wear OS e Google TV devem ter novidades

O Google I/O é uma conferência para desenvolvedores que criam produtos para as plataformas da empresa. A apresentação de abertura não é o único evento: nos dias seguintes, a companhia realiza palestras, sessões técnicas e muito mais.

A programação dá algumas pistas: o Wear OS terá um painel sobre avanços no Watch Face Format, formato dos mostradores dos smartwatches com o sistema. Outros horários serão dedicados a atualizações na Google TV e no Android TV, e uma sessão técnica deverá mostrar o suporte a múltiplas telas no Android Auto.

Com informações: Engadget, TechCrunch, Android Police
O que esperar do Google I/O 2024: anúncio do Android 15 e avanços no Gemini

O que esperar do Google I/O 2024: anúncio do Android 15 e avanços no Gemini
Fonte: Tecnoblog

Google une setores do Android, Chrome e Pixel para acelerar projetos de IA

Google une setores do Android, Chrome e Pixel para acelerar projetos de IA

Google (Imagem: Vitor Pádua / Tecnoblog)

Resumo

O Google anunciou a fusão dos setores responsáveis por Pixel, Chrome e Android em uma única divisão chamada Plataformas e Dispositivos, sob a liderança de Rick Osterloh.
O CEO Sundar Pichai destacou num email que essa estratégia também busca uma integração mais efetiva e rápida com as tecnologias de IA.
A reestruturação acontece em um contexto em que concorrentes como Samsung, Apple, Oppo e OnePlus estão intensificando suas integrações de IA em dispositivos, motivando o Google a fortalecer suas próprias ofertas.
A nova divisão não só incluirá Pixel, Chrome e Android, mas também outros serviços como Google Fotos, ChromeOS, WearOS e Google Drive, indicando uma potencial maior coesão e integração de IA em uma ampla gama de produtos.

O Google comunicou nesta quinta-feira (18) que está unindo os setores responsáveis pelo Pixel, Chrome e Android, além de realizar mudanças na área de IA. Num email aos funcionários, o CEO Sundar Pichai afirmou que a fusão entre esses setores visa acelerar o desenvolvimento desses produtos. Essa estratégia também almeja facilitar a integração entre seus dispositivos, incluindo com o Gemini, sua IA generativa.

Por falar em inteligência artificial, a empresa também está reformulando as divisões que trabalham nessa tecnologia. Setores como o de Responsabilidade e IA (esse é o nome) serão absorvido pelo Google DeepMind. Mais do que o assunto do momento, a IA também é o motivo pelo qual a big tech está fazendo algumas mudanças na casa.

Google une setores pela integração com IA

Ao colocar Android, Chrome e Pixel sob o mesmo teto, o Google espera que as integrações desses produtos com sua IA seja mais efetiva — e rápida. Por anos, a big tech optou por manter Android e o setor de hardwares, que é responsável pelo Pixel e outros dispositivos, separados para evitar um possível favorecimento entre o sistema operacional e seus produtos.

Android agora faz parte da divisão Plataformas e Dispositivos, que pode melhorar sua integração com IA e outros produtos do Google (Imagem: Vitor Pádua/Tecnoblog)

Agora, com a Samsung forte com o Galaxy AI, Apple correndo para lançar uma inteligência artificial integrada ao iPhone e o Gemini Ultra equipando os smartphones da Oppo e OnePlus, é hora de mudar de opinião para não ficar para trás.

Contudo, não é só o Google que deve se beneficiar disso. Os Pixels servem mais como uma plataforma de testes do que um produto feito para destronar a Apple e Samsung. Assim, um Android ou ChromeOS mais integrado com IA é um produto atrativo, evitando que essas companhias sigam para a OpenAI e Microsoft para incluir inteligência artificial em seus produtos.

A nova divisão, batizada de Plataformas e Dispositivos (P&D), também terá os setores responsáveis pelo Google Fotos, ChromeOS, WearOS e Google Drive. Vários produtos digitais que estarão sob responsabilidade de Rick Osterloh, que antes era vice-presidente sênior de dispositivos e serviços.

Hiroshi Lockheimer, ex-diretor da divisão de softwares e uma das “cabeças” do Android, será alocado para outros projetos dentro do Google, os quais não foram divulgados.

Com informações: The Verge, 9to5Google e AndroidPolice
Google une setores do Android, Chrome e Pixel para acelerar projetos de IA

Google une setores do Android, Chrome e Pixel para acelerar projetos de IA
Fonte: Tecnoblog

Google adia para 2025 os planos de seu primeiro chip totalmente customizado

Google adia para 2025 os planos de seu primeiro chip totalmente customizado

Já faz tempo que o Google pretende criar uma linha de chips próprios para usar nos aparelhos da família Pixel. Esse objetivo, porém, vai ficar mais distante. Segundo pessoas familiarizadas com o assunto, o lançamento do novo componente acontecerá só em 2025.

Google Pixel 7, que usa a segunda geração do chip Tensor (Imagem: Divulgação/Google)

De acordo com duas fontes ouvidas pelo site The Information, o Google adiou o lançamento do seu chip totalmente customizado em um ano. O codinome do produto que seria lançado em 2024 era Redondo. Agora, o plano é lançar outro chip em 2025, de codinome Laguna.

O chip totalmente customizado deve ser fabricado pela Taiwan Semiconductor Manufacturing Co, mais conhecida pela sigla TSMC. Ele deve usar processo de litografia de 3 nm. Pelo cronograma, espera-se que o componente acompanhe o Pixel 10.

Em 2021, o lançamento do Pixel 6 e do Pixel 6 Pro marcou a estreia do chip Tensor. Ele é um modelo semicustomizado. Fabricado pela Samsung, o Tensor usa a base do Exynos e conta com componentes extras do Google, para tarefas como aprendizagem de máquina.

Pixel 6 e 6 Pro (Imagem: Divulgação/Google)

Como comenta o Android Authority, a mudança da Samsung para a TSMC na fabricação dos chips pode ser uma boa notícia. Geralmente, os componentes da empresa taiwanesa conseguem entregar desempenho superior.

Além disso, um chip totalmente customizado pode dar ao Google maior controle sobre o hardware e fazê-lo trabalhar melhor com o software, a exemplo do que acontece com a Apple, que usa sua própria linha A nos iPhones.

Google enfrenta problemas com demissões e várias equipes

De acordo com um ex-executivo do Google na área de chips, a empresa enfrenta dificuldades por dividir os trabalhos de desenvolvimento entre equipes nos EUA e na Índia. Além disso, o grande número de rotatividade de funcionários atrapalhou o projeto.

Não foi só o Redondo que acabou adiado. Segundo a mesma fonte, o Google cancelou vários projetos de chips Tensor nos últimos dois anos, o que frustrou os membros desses times.

Com informações: Android Authority, Reuters
Google adia para 2025 os planos de seu primeiro chip totalmente customizado

Google adia para 2025 os planos de seu primeiro chip totalmente customizado
Fonte: Tecnoblog

O que são megapixels e como eles afetam a qualidade da câmera?

O que são megapixels e como eles afetam a qualidade da câmera?

Quanto mais megapixels existem em uma imagem digital, maior é a resolução ou a ampliação alcançada. Mas nem sempre a quantidade de pixels favorece a qualidade da câmera. A seguir, entenda o que é um megapixel e em quais situações essa medida é relevante.

Linha Galaxy S23; versão Ultra (à esquerda) tem câmera de 200 MP (imagem: Paulo Higa/Tecnoblog)

ÍndiceO que é um pixel?O que é megapixel (MP)?Megapixels vs tamanho do sensorO que são megapixels interpolados?O que é pixel binning?Quando a quantidade de megapixels é mais relevante?Como aumentar a qualidade da imagem?Como melhorar a qualidade da câmera do celular?

O que é um pixel?

Um pixel é a menor unidade de uma imagem digital. A superfície de um sensor de imagem é composta por uma matriz com milhões de pixels responsáveis por capturar a luz que entra pela lente da câmera, formando assim as imagens.

O que é megapixel (MP)?

Um megapixel (MP) consiste em 1 milhão de pixels. Trata-se de uma unidade de medida usada para indicar a dimensão de fotos ou vídeos feitos em uma câmera digital.

Uma foto com resolução de 4080×3060 tem 4.080 colunas e 3.060 linhas de pixels; a multiplicação entre esses números indica que a imagem tem 12.484.800 pixels ou aproximadamente 12,5 MP.

Quanto mais megapixels, melhor a câmera?

Não necessariamente. Uma imagem com mais megapixels tem maior resolução, mas o tipo de lente, a distância focal e até recursos de software também influenciam na qualidade de imagem obtida pela câmera.

Foto de 4080×3060 pixels (clique para ampliar) feita com o Galaxy A54(imagem: Emerson Alecrim/Tecnoblog)

Megapixels vs tamanho do sensor

O tamanho do sensor de imagem tende a ser mais importante do que o número de megapixels em ambientes de baixa luminosidade, pois pixels maiores capturam mais luz, resultando em fotos e vídeos com mais detalhes e menor nível de ruído.

Câmeras DSLR e mirrorless avançadas costumam ser equipadas com sensores full frame, que têm o tamanho mais amplo do mercado (36 × 24 mm). Já as câmeras muito compactas e celulares usam sensores menores, com tamanho de 1 polegada ou menos. Nesses dispositivos, o sensor pode ter 50, 64 ou 108 MP, por exemplo.

Para tantos megapixels caberem em sensores pequenos, o tamanho dos pixels também precisa ser reduzido. A consequência é uma menor captação de luz. Essa é a principal razão para o número de megapixels, por si só, não garantir a qualidade de imagem.

Para amenizar as limitações dos pixels menores, os fabricantes recorrem a técnicas como interpolação de megapixels e pixel binning.

Sensor de imagem em uma câmera digital (imagem: Dave Lawrence/Flickr)

O que são megapixels interpolados?

A interpolação é uma técnica que gera uma aumento artificial da resolução da imagem. Com ela, uma foto registrada com um sensor de 5 MP é processada para um número de megapixels maior, como 8 ou 12 MP.

Para isso, algoritmos específicos adicionam pixels extras entre aqueles que já existiam na imagem. Normalmente, os pixels adicionais assumem a cor do pixel que deu origem a eles, resultando em ganho de resolução, mas não necessariamente de qualidade, pois não há informações novas.

Dependendo da intensidade da interpolação, a imagem pode perder nitidez ou apresentar artefatos (informações indesejadas). Apesar disso, a técnica é muito usada em celulares para gerar zoom digital ou ampliar uma foto gerada em um sensor com poucos megapixels.

O que é pixel binning?

Pixel binning é uma técnica de fotografia computacional que melhora o nível de detalhes da imagem combinando um grupo de pixels em um superpixel. O pixel resultante é maior que os originais, fazendo a sensibilidade à luz aumentar. É como se vários feixes luminosos fossem agrupados para formar uma luz mais potente.

O arranjo de pixel binning mais comum é o 2×2, que transforma quatro pixels em um. Mas alguns celulares suportam combinações maiores, como o Galaxy S23 Ultra, que transforma 16 pixels em um. A técnica é útil em celulares porque atenua a menor captação de luz causada pelo tamanho dos pixels em sensores pequenos.

Mas, para proporcionar boa nitidez, o pixel binning requer uma quantidade expressiva de megapixels, pois quanto mais pixels forem combinados, menor é a resolução da imagem. A indústria não definiu um número mínimo, mas pelo menos 30 MP parecem ser o ideal.

Pixels individuais, arranjo 2×2 (tetra-binning) e 3×3 (nona-binning) (imagem: Vitor Pádua/Tecnoblog)

Quando a quantidade de megapixels é mais relevante?

Isoladamente, uma quantidade elevada de megapixels não é um fator preciso de qualidade, mas pode ser interessante em algumas situações:

Zoom digital: em celulares ou câmeras sem zoom óptico, um número grande de megapixels pode permitir aplicação de zoom digital (por software) com um nível de ampliação que causa pouca perda de qualidade;

Impressão: uma quantidade significativa de megapixels permite que a foto tenha resolução adequada para impressão em papel;

Edição de imagem: uma foto em alta resolução pode ser editada com mais precisão, principalmente em trabalhos profissionais.

Se o seu objetivo é tirar fotos para publicar imediatamente nas redes sociais, a quantidade de megapixels não é tão relevante. O Instagram, por exemplo, exibe apenas fotos de até 1080×1350 pixels, o que dá cerca de 1,5 MP.

Foto em ambiente escuro feita com o Galaxy S23 Ultra em pixel binning (imagem: Emerson Alecrim/Tecnoblog)

Como aumentar a qualidade da imagem?

Se a foto já tiver sido tirada, é possível melhorar a qualidade ajustando parâmetros como brilho, contraste e saturação de cores em editores de imagem. Também é possível recorrer a apps para aumentar a resolução de imagem nas situações em que isso é desejável.

Como melhorar a qualidade da câmera do celular?

Usar o modo manual da câmera do celular é uma boa forma de melhorar a qualidade da foto, pois essa opção permite que parâmetros como exposição, ISO e balanço de branco sejam ajustados manualmente. Também é importante limpar a lente da câmera corretamente.

Como saber se a câmera do celular é boa?

Fatores como o tipo e tamanho de sensor, o processador de sinal de imagem e recursos de software, influenciam na qualidade de fotos e vídeos. Veja, em nosso artigo, mais detalhes sobre o que considerar ao escolher uma câmera de celular.
O que são megapixels e como eles afetam a qualidade da câmera?

O que são megapixels e como eles afetam a qualidade da câmera?
Fonte: Tecnoblog

O que é fotografia computacional e qual é a sua importância para smartphones

O que é fotografia computacional e qual é a sua importância para smartphones

Fotografia computacional é um conjunto de técnicas de processamento de imagem que expandem as capacidades brutas de uma câmera. Seu objetivo é permitir o registro de fotos mais criativas, de qualidade técnica superior ou em condições mais desafiadoras, que não seriam possíveis apenas com um sensor e uma lente de celular.

Imagem de uma câmera de celular gerada computacionalmente (Imagem: Criação/Dall-E)

ÍndiceQuando surgiu a fotografia computacional?Quais as limitações da fotografia mobile?O celular já pode substituir uma câmera profissional?Exemplos de técnicas de fotografia computacionalHDR e Smart HDRModo noturnoDeep Fusion e Photonic EnginePixel binningModo retratoAstrofotografiaZoom espacialDiferentes abordagens de machine learning em fotografia

Quando surgiu a fotografia computacional?

O primeiro conceito de fotografia computacional surgiu em 1936 em um artigo do pesquisador Arun Gershun que descrevia o “campo luminoso”, uma função que estabelece a quantidade de luz que viaja em todas as direções através de todos os pontos do espaço.

Em 1996, Marc Levoy e Pat Hanrahan implantaram o campo luminoso em computação gráfica e propuseram “um método para criar novas visualizações a partir de posições arbitrárias de uma câmera simplesmente combinando e reamostrando as imagens disponíveis”.

No entanto, a fotografia computacional só se tornou popular na década de 2010 com a evolução dos processadores de imagem nos smartphones, que passaram a executar tarefas de inteligência artificial, redes neurais e aprendizagem de máquina para melhorar a qualidade das fotos com baixo consumo de energia.

Google Pixel, lançado em 2016, trouxe recursos de fotografia computacional aos celulares (Imagem: Jean Prado/Tecnoblog)

O Google popularizou o conceito de fotografia computacional em 2016 com os celulares Pixel, que tiravam boas fotos com uma câmera de abertura de lente f/2,0 e um sensor de 12 MP, enquanto rivais apostavam em câmeras com especificações superiores. O sucesso do software da câmera é atribuído principalmente a Marc Levoy, que ficou no Google até 2020.

Outras técnicas de fotografia computacional foram desenvolvidas por fabricantes de smartphones, como Xiaomi, Huawei e Samsung. A Apple lançou em 2019 o Deep Fusion, que processa nove imagens para criar uma foto mais nítida, e aprimorou sua tecnologia em 2022 com o Photonic Engine.

Quais as limitações da fotografia mobile?

Celulares têm hardware fotográfico inferior ao de câmeras dedicadas devido a limitações físicas. Enquanto câmeras mirrorless ou DSLR podem ser equipadas com grandes sensores de imagem, um smartphone precisa ter um componente mais compacto, o que restringe sua capacidade de captura de luz.

Um sensor menor precisa de uma sensibilidade ISO maior para capturar a mesma quantidade de luz, o que pode causar ruídos na imagem. Além disso, como os pixels do sensor de um celular são menores, o alcance dinâmico das fotos tende a ser inferior, o que pode gerar imagens com regiões estouradas ou subexpostas.

Tamanhos comuns de sensores de câmeras; celulares costumam ter tamanhos entre 1 e 1/3 polegada, enquanto câmeras DSLR podem ser full frame (Imagem: Vitor Pádua / Tecnoblog)

O conjunto óptico dos celulares também é limitado. Em regra, as lentes têm abertura fixa, o que impede o controle da profundidade de campo e, portanto, não permite o desfoque natural do fundo, o chamado efeito bokeh. Além disso, a distância focal geralmente fixa impede que a lente tenha zoom óptico variável.

O celular já pode substituir uma câmera profissional?

O celular não substitui completamente uma câmera profissional devido às limitações de hardware. Apesar de ter capacidade de processamento maior, um smartphone não pode capturar a mesma quantidade de detalhes que um sensor de DSLR, nem fotografar em todas as condições que uma câmera com lentes intercambiáveis.

Nosso comparativo entre smartphones, câmeras DSLR e mirrorless mostra em detalhes as vantagens e desvantagens de cada tipo de equipamento.

Exemplos de técnicas de fotografia computacional

HDR e Smart HDR

O HDR amplia o alcance dinâmico, ou seja, a diferença entre as áreas mais claras e mais escuras da imagem. Essa técnica de fotografia computacional tenta resolver a limitação do tamanho do sensor dos celulares.

Ao tirar uma foto em HDR, o celular captura várias fotos em sequência, cada uma com níveis diferentes de exposição, e o processador de imagem combina as informações em um único arquivo. O Smart HDR foi lançado pela Apple em 2018 e capturava até 9 imagens em menos de 1 segundo.

Foto usada pela Apple para demonstrar o Smart HDR 4 no iPhone 13 Pro (Imagem: Divulgação/Apple)

A técnica permite que o celular escolha as melhores partes de cada foto, como as áreas mais escuras de uma imagem superexposta e as mais claras de uma imagem subexposta. O resultado é uma foto com mais detalhes visíveis tanto nas regiões mais claras quanto nas mais escuras, o que melhora as cores e o contraste.

Modo noturno

O modo noturno, também chamado de Modo Noite ou Night Vision dependendo da fabricante, melhora a qualidade de uma fotografia em condições de baixa iluminação. Ele compensa a capacidade limitada de captura de luz dos sensores de imagem dos celulares.

O recurso funciona de diferentes maneiras. Ele pode tirar várias fotos em sequência e combiná-las posteriormente para reduzir o ruído, ou manter o obturador aberto por mais tempo para permitir a entrada de mais luz. Depois, o processador de imagem aumenta o brilho enquanto reduz o ruído da foto.

Deep Fusion e Photonic Engine

Deep Fusion é uma tecnologia da Apple que tira nove fotos em sequência e usa o processador neural do iPhone para compor uma foto com melhor alcance dinâmico, maior nível de detalhes e menos ruído. O chip usa técnicas de deep learning (aprendizagem profunda) para identificar a cena e aplicar as melhores configurações.

Foto usada pela Apple para demonstrar o Deep Fusion no iPhone 12 (Imagem: Divulgação/Apple)

Photonic Engine é uma evolução do Deep Fusion que processa as imagens com inteligência artificial antes que elas sejam comprimidas. Isso permite que o Neural Engine atue com uma quantidade de dados maior e melhore ainda mais a exposição, o contraste, a textura e outras características da foto.

Pixel binning

O pixel binning combina vários pixels adjacentes do sensor de imagem em um único pixel, muitas vezes chamado de “superpixel”. O objetivo é contornar o tamanho pequeno dos pixels dos sensores de celulares, que podem gerar mais ruído e capturar menos luz.

A técnica tetra-binning (2×2), por exemplo, combina 4 pixels em um. Dessa forma, um sensor de 48 MP com essa tecnologia gera uma foto de 12 MP que possui maior nível de detalhes e ocupa menos espaço na memória do aparelho. Outros arranjos são frequentemente encontrados em sensores de alta resolução, como 108 e 200 MP.

Tetra-binning e nona-binning (imagem: Vitor Pádua/Tecnoblog)

Modo retrato

O modo retrato permite criar uma foto com fundo desfocado. O efeito é semelhante ao bokeh que acontece nas lentes com grandes aberturas, quando o sujeito principal da foto permanece totalmente focado enquanto o fundo aparece borrado. O bokeh não acontece naturalmente nos celulares devido à ampla profundidade de campo.

No modo retrato, o celular pode tirar duas fotos: uma para o sujeito principal, outra para o fundo. Depois, o processador de imagem junta as duas imagens, borrando digitalmente a que contém o fundo. Sensores de profundidade e ToF podem identificar a profundidade em 3D da foto, gerando recortes mais precisos do fundo.

Foto macro, com profundidade de campo rasa (Imagem: Emerson Alecrim/Tecnoblog)

Astrofotografia

O modo astrofotografia permite capturar imagens do céu noturno com mais detalhes e nitidez. Ele funciona reduzindo a velocidade do obturador para permitir que mais luz chegue até o sensor e compensando digitalmente efeitos indesejados, como tremidos na câmera ou o movimento das estrelas, que gerariam rastros na foto.

O Google Pixel 6 Pro, de 2021, embutiu recursos de astrofotografia em seu modo noturno, chamado de Night Sight. Quando apoiado em um tripé ou outra superfície, o celular tira foto das estrelas após manter o sensor exposto por 4 minutos. O Samsung Galaxy S22 também foi lançado com um recurso similar em 2022.

Zoom espacial

Zoom espacial, Space Zoom, zoom de 100x e outras tecnologias similares usam zoom híbrido para atingir longas distâncias focais em uma câmera de celular. O objetivo é tirar fotos de objetos muito distantes mesmo com uma lente pequena, que caiba em um aparelho compacto.

Ele combina o zoom óptico da lente teleobjetiva ou periscópica com o zoom digital. Se houver zoom óptico de 10x mais um digital de 10x, é possível fotografar a lua gerando menos artefatos e ruídos que em um zoom digital puro de 100x. O processador de imagem também atua para reduzir os problemas causados pelo zoom digital.

Diferentes abordagens de machine learning em fotografia

Fabricantes de celulares podem usar diferentes abordagens de fotografia computacional para criar fotos visualmente mais interessantes.

A Apple, por exemplo, tende a usar machine learning para aumentar o realismo das fotos, melhorando a nitidez de uma imagem com o Deep Fusion e o Photonic Engine. O objetivo é ressaltar detalhes já existentes que a câmera do iPhone não consegue capturar com precisão.

Já outras marcas, como a Samsung e a Huawei, chegaram a usar fotografia computacional para criar novas fotos. O Galaxy S23 Ultra, por exemplo, adiciona texturas de alta resolução da lua quando o usuário tenta capturar uma foto do satélite. Oficialmente, a empresa nega fazer sobreposição de imagens.
O que é fotografia computacional e qual é a sua importância para smartphones

O que é fotografia computacional e qual é a sua importância para smartphones
Fonte: Tecnoblog

Android 14: o que esperar da próxima versão do sistema operacional

Android 14: o que esperar da próxima versão do sistema operacional

Em fevereiro, o Google revelou o cronograma de desenvolvimento e a previsão de lançamento do Android 14, próxima versão do seu sistema operacional para mobiles. Conforme o Google libera as diferentes fases de testes, as novidades sobre o SO são reveladas. Segundo as primeiras informações, o Android 14 terá muitas melhorias para usabilidade para os smartphones — sem esquecer os dobráveis e tablets.

Android 14 (imagem: Vitor Pádua/Tecnoblog)

ÍndiceAndroid 14 e suas novidades para usabilidadePersonalização no Android 14Novos recursos de segurança no Android 14Android 14 com suporte para ligação via satéliteAndroid 14 aumentará a vida útil de celulares antigosMelhoria no uso por gestos no Android 14E quando chega o Android 14?

Android 14 e suas novidades para usabilidade

Na primeira fase de testes do Android 14, chamada de Developers Preview 1 (DP1), o Google liberou uma ferramenta para melhorar o uso de celulares com dois SIM cards — ou com eSIM e uma entrada para o chip físico. Essa funcionalidade permite automatizar a escolha do SIM principal, avaliando qual possui a melhor conectividade no momento.

Sabe aqueles aplicativos pré-instalados que só ocupam espaço? O Android 14 deve facilitar a remoção desses apps, chamados de bloatware. Na Configuração do novo SO está o recurso de listar esses apps que ficam em segundo plano sem muita utilidade. Contudo, a ferramenta está oculta no DP1, indicando que o Google ainda está desenvolvendo o recurso.

Para pessoas com deficiência visual, o Android 14 conta com uma opção de aumentar a fonte para até 200% do tamanho original.

Nos tablets e smartphones dobráveis, o Android 14 mostrará os nomes dos aplicativos da barra de tarefas. Atualmente, a barra só exibe os ícones dos apps — o que pode confundir quem não tem muita experiência com eles. O novo SO também tem como proposta manter uma experiência integrada entre os diferentes formatos. Assim, o usuário não precisará se adaptar a um app de para smartphone e outro para tablet ou dobrável.

Barra de tarefas no Android 14 para tablets (Imagem: Reprodução/9to5Google)

O Health Connect, hub de aplicativos de saúde, será instalado por padrão em dispositivos com Android 14.

Para desencargo de consciência, vamos falar de um recurso que pode chegar só no Pixel —e já existe nos Galaxys. O Google liberou a ferramenta “Apps Clonados”. Com ele, você pode ter dois WhatsApps em um mesmo celular. Aqui não difere muito do que o One UI já tem. A diferença é que agora ele parece estar disponível no Pixel, que não é vendido no Brasil (uma pena).

Personalização no Android 14

“Escondido” no primeiro teste para desenvolvedores está o menu de teclado. Este recurso permitirá que os usuários personalizem botões de teclado externo e touchpads. A ideia deste menu é facilitar o uso desses dispositivos em smartphones com tela grande e tablets. No caso dos touchpads, será possível até configurar gestos no acessório.

Android 14 menu para teclado (Imagem: Reprodução/XDA-Developers)

Na Developers Preview 2 (DP2), o Android 14 conta com o recurso de “Preferências Regionais” (tradução direta). Nesta seção, o usuário poderá escolher as unidades de medidas, primeiro dia da semana e até o calendário que os apps mostrarão.

Por exemplo, você poderá selecionar o calendário hebraico e sistema métrico como padrão. E também se você prefere o domingo ou segunda como primeiro dia da semana em apps.

Novos recursos de segurança no Android 14

No Android 14, a proteção de memória RAM será ativado por padrão em processadores baseados na arquitetura Arm v8.5 ou superior — desde que os chips suportem essa tecnologia. O recurso utiliza a tecnologia Memory Tagging Extesion, obrigatório em chips Arm v9.

O Google também desenvolveu um bloqueador de apps para o Android 14. O alvo dessa ferramenta são aplicativos que visam versões antigas do sistema operacional. Com isso, usuários que tentarem instalar um app desenvolvido para outra versão não terão sucesso.

Parecido com que acontece no iOS, o Android 14 perguntará ao usuário qual mídias um aplicativo pode acessar. Ele dará as opções de “Todas as fotos”, “Selecionar fotos” e “Não permitir”.

Android 14 pede autorização para aplicativos acessarem as suas mídias (Imagem: Reprodução/XDA-Developers)

Android 14 com suporte para ligação via satélite

Bem, o título acima explica tudo. O Android 14 terá suporte para realizar ligações e enviar SMS com conexão por satélite. Esse recurso foi um dos primeiros revelados pelo Google, lá em 1º de setembro de 2022. A confirmação veio de um tweet de Hiroshi Lockheimer, vice-presidente sênior de plataforma na empresa.

Wild to think about user experiences for phones that can connect to satellites. When we launched G1 in ’08 it was a stretch to get 3G + Wifi working. Now we’re designing for satellites. Cool! Excited to support our partners in enabling all of this in the next version of Android!— Hiroshi Lockheimer (@lockheimer) September 1, 2022

Mas preste atenção: para realizar ligações e enviar SMS por satélites, os smartphones terão que contar com hardware com suporte para conexão via satélite.

Android 14 aumentará a vida útil de celulares antigos

De acordo com o XDA-Developers, o Android 14 terá uma ferramenta para atualizar a autoridade de certificação (CA, em inglês) de smartphones. Esse recurso aumentará a vida útil de Androids mais antigos, pois manterá o CA atualizado mesmo sem atualização do sistema operacional.

Sem um CA atualizado, um smartphone não pode acessar a internet. O recurso, ainda não comentado nos testes, usará o Google Play Services para atualizar o certificado no dispositivo.

Melhoria no uso por gestos no Android 14

Android 14 terá melhorias no uso por gestos (Imagem: Reprodução)

Se você usa um smartphone Android por gestos (funcionalidade que esconde os botões), deve ter passado pela situação de querer voltar uma página e acabar retornando para a tela inicial do celular. Isso será resolvido no Android 14.

O Google revelou que, por padrão, todos os aplicativos do Android 14 mostrarão uma prévia da página anterior ao realizar o gesto de retornar. A equipe do Android batizou esse problema de “falsing”, algo como “falseando”, em tradução direta. Segundo a equipe

E quando chega o Android 14?

Cronograma de desenvolvimento do Android 14 (Imagem: Divulgação/Google)

O Google anunciou que o Android 14 será lançado “depois de agosto”. A data é “incerta” porque o cronograma de testes pode sofrer alterações. Logo, a sua estreia em agosto depende de que tudo saia como planejado — difícil, mas não impossível.

No ano passado, o Android 13 foi lançado no dia 15 de agosto. O Google conseguiu seguir seu cronograma porque não houve problemas críticos que causassem um atraso.

Se a empresa seguir o desempenho do ano anterior, mantendo as datas originais do betas públicos, veremos novamente o Android lançado em agosto. Todavia, os sistemas operacionais baseados no Android 14 são lançados de acordo com as fabricantes de smartphones.
Android 14: o que esperar da próxima versão do sistema operacional

Android 14: o que esperar da próxima versão do sistema operacional
Fonte: Tecnoblog