Blog

O que é estabilização digital de imagem (EIS)? Saiba por que ela é boa para vídeos

O que é estabilização digital de imagem (EIS)? Saiba por que ela é boa para vídeos

Estabilização eletrônica de imagem (EIS) é uma tecnologia que previne borrões causados por movimentos durante o registro de fotos e, principalmente, vídeos. Também chamado de estabilização digital, o recurso funciona em conjunto com o processador de imagem de câmeras e celulares.

GoPro Hero 7 Black tem EIS (imagem: Paulo Higa/Tecnoblog)

ÍndiceComo funciona a estabilização digital de imagemQuando usar estabilização digital na câmeraPrincipais tecnologias de EISQual é melhor, estabilização óptica ou digital?Por que o vídeo fica distorcido com a estabilização digital ligada?Qual a diferença entre estabilização digital e a Estabilização Aprimorada do iPhone?

Como funciona a estabilização digital de imagem

Para uma foto ou vídeo ser registrada, o sensor de imagem recebe a luz capturada pela lente da câmera. Em seguida, essa informação é enviada ao processador de sinal de imagem (ISP). A estabilização digital começa quando o ISP analisa esses dados para identificar alterações na imagem causadas por movimentos.

A análise dos dados é feita em tempo real por meio de algoritmos que detectam pixels que correspondem a trepidações ou movimentos involuntários. Dados de giroscópios e acelerômetros também podem ser usados para esse fim.

Na etapa seguinte, a estabilização eletrônica de imagem é efetivamente aplicada por meio de compensações sobre o movimento indesejado. Há dois métodos principais para isso:

Zoom digital: a imagem é ampliada digitalmente, dividida em zonas e comparada quadro a quadro. Se mudanças nas zonas forem percebidas nessa comparação, o EIS aproveita a margem obtida com a ampliação para mover a imagem na direção oposta e, assim, compensar o movimento indesejado;

Deslocamento das bordas do sensor: o conteúdo capturado pelas bordas do sensor não compõe a imagem final, mas essa área serve para compensar movimentos. Assim, se uma vibração para cima for detectada, um espaço correspondente na borda inferior é usado como compensação.

Estabilização digital de imagem (imagem: Vitor Pádua/Tecnoblog)

Quando usar estabilização digital na câmera

A estabilização digital pode ser usada em situações nas quais movimentos indesejados prejudicam a qualidade da imagem, principalmente durante a gravação de um vídeo. É o caso de:

Assunto que se move rápido: o EIS pode compensar movimentos de crianças ou animais que se movem durante as filmagens;

Usuário em movimento: a tecnologia pode compensar movimentos indesejados causados por quem fotografa ou filma. É por isso que o EIS é muito comum em câmeras de ação;

Falta de tripé: a estabilização óptica pode prevenir rastros ou borrões causados pela falta de suporte fixo para a câmera ou celular;

Baixa luminosidade: a estabilização digital favorece registros em ambientes com pouca luz. Nessa condição, há mais chances de a imagem ficar tremida ou borrada.

O Samsung Galaxy A52 usa EIS para gravar vídeos (imagem: Paulo Higa/Tecnoblog)

A estabilização eletrônica é mais barata que a estabilização óptica por não exigir componentes mecânicos, mas é mais suscetível a efeitos indesejados.

Um dos possíveis problemas é a resolução menor causada pela ampliação da imagem ou o aproveitamento das bordas do sensor. Outro é o surgimento de distorções nos cantos causados pela tentativa do ISP de preservar as zonas centrais da imagem.

Algumas imagens geradas com EIS também podem apresentam um “efeito gelatina”, distorção que faz objetos terem visual arredondado ou torcido por causa de mudanças de perspectiva.

Ajustar parâmetros como ISO e velocidade do obturador pode amenizar esses problemas.

Principais tecnologias de EIS

Tecnologias de estabilização eletrônica de imagem podem assumir diferentes nomes comerciais, dependendo da fabricante. Algumas das marcas mais comuns são:

GoPro HyperSmooth: corta aproximadamente 5% das bordas da imagem para estabilizar os vídeos por software e está presente nas câmeras de ação de linhas como Hero;

Sony SteadyShot: muito frequente em câmeras digitais Cybershot, é a versão eletrônica do Optical SteadyShot (OSS), marca usada em lentes da Sony com estabilização óptica;

Huawei AIS: é uma tecnologia que otimiza a estabilização digital com inteligência artificial. É interessante para remover movimentos indesejados em condições de baixa luminosidade. Aparece em linhas como Huawei P30;

DJI RockSteady: é um sistema de EIS criado para as câmeras de ação Osmo. Também aparece em câmeras dos drones da marca. Existe uma variação chamada HorizonSteady que favorece a estabilização horizontal da imagem;

Apple Modo de Ação: o modo de ação da linha iPhone 14 é auxiliada por EIS para permitir filmagens com muita movimentação;

Sensores Samsung Isocell: muitos sensores de câmera da Samsung trazem suporte nativo a EIS, a exemplo dos modelos Isocell GW3 e HM2. A tecnologia também aparece em alguns celulares da série Galaxy A.

Sistema GoPro HyperSmooth (imagem: Paulo Higa/Tecnoblog)

Qual é melhor, estabilização óptica ou digital?

Em linhas gerais, a estabilização óptica é melhor, pois compensa movimentos indesejados mudando a posição dos elementos da lente. Como esse ajuste é feito mecanicamente, há menos risco de distorções ou surgimento de artefatos na imagem. Saiba mais em nosso comparativo entre estabilização óptica e digital.

Por que o vídeo fica distorcido com a estabilização digital ligada?

A estabilização digital aplica zoom sobre uma imagem ou descarta as bordas do conteúdo capturado pelo sensor. Essa abordagem abre margens para compensação de movimentos indesejáveis durante o processamento de imagem. Contudo, pode ocorrer uma extrapolação de pixels nesse processo que causa distorções.

Qual a diferença entre estabilização digital e a Estabilização Aprimorada do iPhone?

A Estabilização Aprimorada é um recurso que aumenta o zoom para evitar efeitos de tremor durante gravações de vídeo. Trata-se de um sistema de EIS, mas otimizado para permitir filmagens sem movimentos indesejados enquanto o usuário mantém o iPhone em mãos.
O que é estabilização digital de imagem (EIS)? Saiba por que ela é boa para vídeos

O que é estabilização digital de imagem (EIS)? Saiba por que ela é boa para vídeos
Fonte: Tecnoblog

Estabilização de imagem no corpo (IBIS): entenda a tecnologia com deslocamento de sensor

Estabilização de imagem no corpo (IBIS): entenda a tecnologia com deslocamento de sensor

A estabilização de imagem no corpo (IBIS) ou sensor-shift é uma tecnologia que ajusta a posição do sensor de imagem para prevenir borrões ou desfoques causados por movimentos. A técnica é diferente da OIS, que estabiliza a lente. O IBIS é mais comum em câmeras mirrorless e DSLR, mas também aparece em celulares avançados.

A Canon EOS R7 tem estabilização de imagem no corpo (imagem: divulgação/Canon)

ÍndiceComo funciona a estabilização com mecanismo sensor-shiftQuando usar estabilização de imagem no corpoPrincipais tecnologias de estabilização de imagem no corpoQual é melhor, estabilização óptica ou sensor-shift?Qual a diferença entre SSS e OIS?

Como funciona a estabilização com mecanismo sensor-shift

O sensor de imagem é o item que recebe a luz obtida pela lente para gerar uma foto ou vídeo. Nesse processo, uma vibração pode modificar os raios de luz que passam pela lente, gerando imagens borradas ou tremidas. A IBIS move o sensor na direção oposta para compensar os movimentos que causam esses problemas.

A detecção dos movimentos da câmera pode ser feita via acelerômetro ou giroscópio. Muitas tecnologias de sensor-shift usam sistemas de cinco eixos (5-axis) para detectar deslocamentos para cima, para baixo e para as laterais, bem como movimentos de rotação.

As informações obtidas por esses componentes são analisadas em tempo real pelo sistema da câmera, que aciona um motor para mover a plataforma flutuante que abriga o sensor de modo a compensar o movimento indesejado.

Estabilização de imagem no corpo (imagem: Vitor Pádua/Tecnoblog)

A IBIS é diferente da estabilização óptica (OIS), que compensa movimentos ajustando a posição dos elementos da lente. Ambos os sistemas são eficientes, mas a estabilização de imagem no corpo tende a funcionar melhor com distâncias focais curtas.

Quando usar estabilização de imagem no corpo

Sistemas IBIS podem ser usados nas situações que favorecem o surgimento de tremores, borrões ou desfoques causados por movimentos com a câmera. Eis alguns exemplos:

Vídeos enquanto se anda: câmeras ou celulares com sensor-shift amenizam o desconfortável efeito de subida e descida na gravação de vídeo causado pelos passos do usuário;

Desfoque de fundo: a IBIS pode evitar que movimentos involuntários que deslocam a luz na lente prejudiquem registros de imagens com efeito bokeh;

Distância focal curta: a IBIS tende a funcionar melhor que a estabilização óptica em imagens com distância focal próxima, de acordo com a Canon. Contudo, a OIS pode se sair melhor em distâncias focais longas;

Vibração discreta: câmeras com sensor-shift são muito eficientes em estabilizar imagens em movimentos suaves, mas perceptíveis, como aqueles causados por respiração do usuário ou vento que balança a câmera;

Lentes sem estabilização: a estabilização de imagem no corpo funciona com qualquer lente. Com isso, a foto ou vídeo será estabilizada mesmo se uma objetiva sem OIS for usada;

IBIS e OIS juntas: algumas câmeras com sensor-shift, como a Canon EOS R7, trabalham junto com lentes OIS para formar um estabilizador de imagem híbrido. Esse sistema faz a estabilização funcionar nas mais variadas distâncias focais.

Embora ofereça muitas vantagens, a estabilização de imagem no corpo pode não funcionar adequadamente quando os movimentos desejados forem muito intensos, ou quando a bateria da câmera estiver baixa, já que o IBIS pode ser desativado nessa condição.

Ajustar parâmetros como velocidade do obturador e ISO pode minimizar o problema.

Principais tecnologias de estabilização de imagem no corpo

Tecnologias de estabilização de imagem por deslocamento de sensor podem assumir diferentes nomes comerciais, dependendo da fabricante. Algumas das marcas mais comuns são:

Canon In-Body Image Stabilizer (IBIS): foi lançado nas câmeras EOS R5, EOS R6 e EOS E3 com cinco eixos de estabilização e integração com as lentes Canon IS para melhor desempenho;

Apple Sensor-shift OIS: apresentado em 2020 na linha iPhone 12, inicialmente apenas para a versão Pro Max, que tinha um sensor de imagem flutuante para a lente grande-angular. O iPhone 14 Pro tem dois sensores do tipo;

Fujifilm IBIS: funciona com sistema de cinco eixos e está presente em câmeras das séries X e FGX, a exemplo dos modelos Fujifilm GFX100S e X-T5;

Panasonic IBIS: aparece principalmente nas câmeras mirrorless da marca. Em muitas delas, a estabilização de imagem no corpo é combinada com estabilização na lente, sistema chamada pela Panasonic de Dual I.S.;

Sony SteadyShot: o nome representa tanto o sistema de estabilização óptica quanto o de sensor-shift da Sony. Câmeras como Alpha 99 (DSLR) e Alpha 7 IV (mirrorless) têm IBIS;

Nikon IBIS: a marca introduziu a tecnologia nas câmeras Z6 e Z7, lançadas em 2018. Desde então, a companhia implementa estabilização por deslocamento de sensor em modelos mirrorless;

Olympus In-Body Image Stabilization: a Olympus é pioneira no uso de IBIS de cinco eixos. A tecnologia aparece nas câmeras OM e OM-D mais sofisticadas da marca.

O iPhone 14 Pro tem sensor-shift nas câmera principal e telefoto (imagem: Emerson Alecrim/Tecnoblog)

Qual é melhor, estabilização óptica ou sensor-shift?

O sensor-shift costuma ser mais bem aceito por funcionar com vários tipos de lentes e ter bastante precisão. Mas a estabilização óptica também é eficiente, principalmente com distâncias focais longas. Saiba mais em nosso comparativo entre estabilização óptica, digital e no corpo.

Qual a diferença entre SSS e OIS?

OIS é a sigla em inglês para estabilização óptica de imagem, tecnologia que funciona movimentando os elementos da lente. Já SSS é uma sigla para “Sensor-Shift Stabilization”, ou seja, é uma expressão alternativa para estabilização de imagem no corpo
Estabilização de imagem no corpo (IBIS): entenda a tecnologia com deslocamento de sensor

Estabilização de imagem no corpo (IBIS): entenda a tecnologia com deslocamento de sensor
Fonte: Tecnoblog

Lembra dele? Assassin's Creed VR ganha novo nome e será lançado em 2023

Lembra dele? Assassin’s Creed VR ganha novo nome e será lançado em 2023

Embora a Ubisoft tenha cancelado a versão VR de Splinter Cell em 2022, os planos para Assassin’s Creed VR seguem mais vivos do que nunca e com um novo nome: Assassin’s Creed Nexus VR.

O desenvolvimento do jogo foi confirmado pelo diretor criativo da Nexus, David Votypka, durante o encerramento de um Quest Games Showcase onde também foram anunciados Stranger Things VR, Vampire: The Masquerade – Justice VR e Attack on Titan VR.Votypka diz que o jogo será lançado para o Oculus Quest 2 e mais detalhes sobre ele serão revelados durante o evento Ubisoft Forward em 12 de junho.Clique aqui para ler mais

Lembra dele? Assassin’s Creed VR ganha novo nome e será lançado em 2023
Fonte: Tudocelular

Paramount Plus: veja as novidades que chegam ao catálogo em junho de 2023

Paramount Plus: veja as novidades que chegam ao catálogo em junho de 2023

Junho já começou e enquanto muitos se preparam para as queridas festas de São João, as plataformas de streaming chegam com muitas novidades em seus catálogos.

Recentemente, descobrimos as novidades que chegam à Netflix, Prime Video, Star Plus e Lionsgate Plus, mas o Paramount Plus, outra plataforma queridinha dos brasileiros, também resolveu anunciar o que chega em seu catálogo ao longo dos próximos dias.

Entre os destaques estão as novas temporadas de: Rio Shore, Queen Of The Universe, iCarly e Star Trek: Strange New Worlds. Clique aqui para ler mais

Paramount Plus: veja as novidades que chegam ao catálogo em junho de 2023
Fonte: Tudocelular

Diablo IV: jogadores já podem ter acesso antecipado ao jogo em todas as plataformas

Diablo IV: jogadores já podem ter acesso antecipado ao jogo em todas as plataformas


Atualização (02/06/2023) – RS
Os jogadores que compraram Diablo IV na Edição Digital Deluxe ou Edição Ultimate na pré-venda já podem ter acesso antecipado ao jogo. A partir desta quinta-feira (01), esses usuários já podem conferir em primeira mão os primeiros detalhes presentes no game. O lançamento do título será no dia 6 de junho.

Vale lembrar que o primeiro dia do mês também foi a data em que o desafio hardcore começou a valer. Para quem não se lembra, trata-se de uma iniciativa que visa registrar o nome dos 1 mil primeiros jogadores que conseguirem chega ao nível 100 no modo Hardcore em uma estátua de Lilith.Clique aqui para ler mais

Diablo IV: jogadores já podem ter acesso antecipado ao jogo em todas as plataformas
Fonte: Tudocelular

Nintendo apresenta novas cores em tons pastéis para os Joy-Con do Switch

Nintendo apresenta novas cores em tons pastéis para os Joy-Con do Switch

A Nintendo anunciou nesta sexta-feira (2) algumas novas opões de cores para os Joy-Cons. Nesse sentido, os acessórios possuem tons pastéis e chegam para dar mais alternativas de personalização para o Switch. Dessa forma, o usuário pode escolher entre as cores Rosa e Amarelho ou Roxo e Verde.

Essa novidade foi divulgada pela própria Big N em seu perfil oficial no Twitter e como se pode ver na imagem, os modelos estão todos no mesmo tom pastel, como é de se esperar. Além disso, a empresa afirmou que os itens estarão disponíveis a partir do dia 30 de junho.Vale lembrar que esses controles podem ser utilizados em outros dispositivos além do Nintendo Switch. Por exemplo, a plataforma Steam, da Valve, possui suporte de forma oficial aos Joy-Con do console híbrido da Big N. Entretanto, o modelo não parece exatamente confortável para usar em outros sistemas.Clique aqui para ler mais

Nintendo apresenta novas cores em tons pastéis para os Joy-Con do Switch
Fonte: Tudocelular

TudoTV: 10 melhores animes para assistir na HBO Max

TudoTV: 10 melhores animes para assistir na HBO Max

O TudoTV está fazendo uma disputa de catálogos entre as principais plataformas de streaming no Brasil. Já elegemos os 10 melhores animes disponíveis na Netflix, no Prime Video e agora chegou a vez da HBO Max, que em breve será renomeada apenas como Max em breve.Attack on Titan – O Arco da Flecha Escarlate

Num mundo arrasado por criaturas gigantes devoradoras de humanos chamadas Titãs, um jovem se torna a única esperança da humanidade de recuperar sua liberdade.Clique aqui para ler mais

TudoTV: 10 melhores animes para assistir na HBO Max
Fonte: Tudocelular

O que é fotografia computacional e qual é a sua importância para smartphones

O que é fotografia computacional e qual é a sua importância para smartphones

Fotografia computacional é um conjunto de técnicas de processamento de imagem que expandem as capacidades brutas de uma câmera. Seu objetivo é permitir o registro de fotos mais criativas, de qualidade técnica superior ou em condições mais desafiadoras, que não seriam possíveis apenas com um sensor e uma lente de celular.

Imagem de uma câmera de celular gerada computacionalmente (Imagem: Criação/Dall-E)

ÍndiceQuando surgiu a fotografia computacional?Quais as limitações da fotografia mobile?O celular já pode substituir uma câmera profissional?Exemplos de técnicas de fotografia computacionalHDR e Smart HDRModo noturnoDeep Fusion e Photonic EnginePixel binningModo retratoAstrofotografiaZoom espacialDiferentes abordagens de machine learning em fotografia

Quando surgiu a fotografia computacional?

O primeiro conceito de fotografia computacional surgiu em 1936 em um artigo do pesquisador Arun Gershun que descrevia o “campo luminoso”, uma função que estabelece a quantidade de luz que viaja em todas as direções através de todos os pontos do espaço.

Em 1996, Marc Levoy e Pat Hanrahan implantaram o campo luminoso em computação gráfica e propuseram “um método para criar novas visualizações a partir de posições arbitrárias de uma câmera simplesmente combinando e reamostrando as imagens disponíveis”.

No entanto, a fotografia computacional só se tornou popular na década de 2010 com a evolução dos processadores de imagem nos smartphones, que passaram a executar tarefas de inteligência artificial, redes neurais e aprendizagem de máquina para melhorar a qualidade das fotos com baixo consumo de energia.

Google Pixel, lançado em 2016, trouxe recursos de fotografia computacional aos celulares (Imagem: Jean Prado/Tecnoblog)

O Google popularizou o conceito de fotografia computacional em 2016 com os celulares Pixel, que tiravam boas fotos com uma câmera de abertura de lente f/2,0 e um sensor de 12 MP, enquanto rivais apostavam em câmeras com especificações superiores. O sucesso do software da câmera é atribuído principalmente a Marc Levoy, que ficou no Google até 2020.

Outras técnicas de fotografia computacional foram desenvolvidas por fabricantes de smartphones, como Xiaomi, Huawei e Samsung. A Apple lançou em 2019 o Deep Fusion, que processa nove imagens para criar uma foto mais nítida, e aprimorou sua tecnologia em 2022 com o Photonic Engine.

Quais as limitações da fotografia mobile?

Celulares têm hardware fotográfico inferior ao de câmeras dedicadas devido a limitações físicas. Enquanto câmeras mirrorless ou DSLR podem ser equipadas com grandes sensores de imagem, um smartphone precisa ter um componente mais compacto, o que restringe sua capacidade de captura de luz.

Um sensor menor precisa de uma sensibilidade ISO maior para capturar a mesma quantidade de luz, o que pode causar ruídos na imagem. Além disso, como os pixels do sensor de um celular são menores, o alcance dinâmico das fotos tende a ser inferior, o que pode gerar imagens com regiões estouradas ou subexpostas.

Tamanhos comuns de sensores de câmeras; celulares costumam ter tamanhos entre 1 e 1/3 polegada, enquanto câmeras DSLR podem ser full frame (Imagem: Vitor Pádua / Tecnoblog)

O conjunto óptico dos celulares também é limitado. Em regra, as lentes têm abertura fixa, o que impede o controle da profundidade de campo e, portanto, não permite o desfoque natural do fundo, o chamado efeito bokeh. Além disso, a distância focal geralmente fixa impede que a lente tenha zoom óptico variável.

O celular já pode substituir uma câmera profissional?

O celular não substitui completamente uma câmera profissional devido às limitações de hardware. Apesar de ter capacidade de processamento maior, um smartphone não pode capturar a mesma quantidade de detalhes que um sensor de DSLR, nem fotografar em todas as condições que uma câmera com lentes intercambiáveis.

Nosso comparativo entre smartphones, câmeras DSLR e mirrorless mostra em detalhes as vantagens e desvantagens de cada tipo de equipamento.

Exemplos de técnicas de fotografia computacional

HDR e Smart HDR

O HDR amplia o alcance dinâmico, ou seja, a diferença entre as áreas mais claras e mais escuras da imagem. Essa técnica de fotografia computacional tenta resolver a limitação do tamanho do sensor dos celulares.

Ao tirar uma foto em HDR, o celular captura várias fotos em sequência, cada uma com níveis diferentes de exposição, e o processador de imagem combina as informações em um único arquivo. O Smart HDR foi lançado pela Apple em 2018 e capturava até 9 imagens em menos de 1 segundo.

Foto usada pela Apple para demonstrar o Smart HDR 4 no iPhone 13 Pro (Imagem: Divulgação/Apple)

A técnica permite que o celular escolha as melhores partes de cada foto, como as áreas mais escuras de uma imagem superexposta e as mais claras de uma imagem subexposta. O resultado é uma foto com mais detalhes visíveis tanto nas regiões mais claras quanto nas mais escuras, o que melhora as cores e o contraste.

Modo noturno

O modo noturno, também chamado de Modo Noite ou Night Vision dependendo da fabricante, melhora a qualidade de uma fotografia em condições de baixa iluminação. Ele compensa a capacidade limitada de captura de luz dos sensores de imagem dos celulares.

O recurso funciona de diferentes maneiras. Ele pode tirar várias fotos em sequência e combiná-las posteriormente para reduzir o ruído, ou manter o obturador aberto por mais tempo para permitir a entrada de mais luz. Depois, o processador de imagem aumenta o brilho enquanto reduz o ruído da foto.

Deep Fusion e Photonic Engine

Deep Fusion é uma tecnologia da Apple que tira nove fotos em sequência e usa o processador neural do iPhone para compor uma foto com melhor alcance dinâmico, maior nível de detalhes e menos ruído. O chip usa técnicas de deep learning (aprendizagem profunda) para identificar a cena e aplicar as melhores configurações.

Foto usada pela Apple para demonstrar o Deep Fusion no iPhone 12 (Imagem: Divulgação/Apple)

Photonic Engine é uma evolução do Deep Fusion que processa as imagens com inteligência artificial antes que elas sejam comprimidas. Isso permite que o Neural Engine atue com uma quantidade de dados maior e melhore ainda mais a exposição, o contraste, a textura e outras características da foto.

Pixel binning

O pixel binning combina vários pixels adjacentes do sensor de imagem em um único pixel, muitas vezes chamado de “superpixel”. O objetivo é contornar o tamanho pequeno dos pixels dos sensores de celulares, que podem gerar mais ruído e capturar menos luz.

A técnica tetra-binning (2×2), por exemplo, combina 4 pixels em um. Dessa forma, um sensor de 48 MP com essa tecnologia gera uma foto de 12 MP que possui maior nível de detalhes e ocupa menos espaço na memória do aparelho. Outros arranjos são frequentemente encontrados em sensores de alta resolução, como 108 e 200 MP.

Tetra-binning e nona-binning (imagem: Vitor Pádua/Tecnoblog)

Modo retrato

O modo retrato permite criar uma foto com fundo desfocado. O efeito é semelhante ao bokeh que acontece nas lentes com grandes aberturas, quando o sujeito principal da foto permanece totalmente focado enquanto o fundo aparece borrado. O bokeh não acontece naturalmente nos celulares devido à ampla profundidade de campo.

No modo retrato, o celular pode tirar duas fotos: uma para o sujeito principal, outra para o fundo. Depois, o processador de imagem junta as duas imagens, borrando digitalmente a que contém o fundo. Sensores de profundidade e ToF podem identificar a profundidade em 3D da foto, gerando recortes mais precisos do fundo.

Foto macro, com profundidade de campo rasa (Imagem: Emerson Alecrim/Tecnoblog)

Astrofotografia

O modo astrofotografia permite capturar imagens do céu noturno com mais detalhes e nitidez. Ele funciona reduzindo a velocidade do obturador para permitir que mais luz chegue até o sensor e compensando digitalmente efeitos indesejados, como tremidos na câmera ou o movimento das estrelas, que gerariam rastros na foto.

O Google Pixel 6 Pro, de 2021, embutiu recursos de astrofotografia em seu modo noturno, chamado de Night Sight. Quando apoiado em um tripé ou outra superfície, o celular tira foto das estrelas após manter o sensor exposto por 4 minutos. O Samsung Galaxy S22 também foi lançado com um recurso similar em 2022.

Zoom espacial

Zoom espacial, Space Zoom, zoom de 100x e outras tecnologias similares usam zoom híbrido para atingir longas distâncias focais em uma câmera de celular. O objetivo é tirar fotos de objetos muito distantes mesmo com uma lente pequena, que caiba em um aparelho compacto.

Ele combina o zoom óptico da lente teleobjetiva ou periscópica com o zoom digital. Se houver zoom óptico de 10x mais um digital de 10x, é possível fotografar a lua gerando menos artefatos e ruídos que em um zoom digital puro de 100x. O processador de imagem também atua para reduzir os problemas causados pelo zoom digital.

Diferentes abordagens de machine learning em fotografia

Fabricantes de celulares podem usar diferentes abordagens de fotografia computacional para criar fotos visualmente mais interessantes.

A Apple, por exemplo, tende a usar machine learning para aumentar o realismo das fotos, melhorando a nitidez de uma imagem com o Deep Fusion e o Photonic Engine. O objetivo é ressaltar detalhes já existentes que a câmera do iPhone não consegue capturar com precisão.

Já outras marcas, como a Samsung e a Huawei, chegaram a usar fotografia computacional para criar novas fotos. O Galaxy S23 Ultra, por exemplo, adiciona texturas de alta resolução da lua quando o usuário tenta capturar uma foto do satélite. Oficialmente, a empresa nega fazer sobreposição de imagens.
O que é fotografia computacional e qual é a sua importância para smartphones

O que é fotografia computacional e qual é a sua importância para smartphones
Fonte: Tecnoblog

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Quando a Nvidia começou a sequência de anúncios das suas tecnologias para inteligência artificial e computação de alto desempenho, os gamers ficaram com uma dúvida: a empresa vai deixar as GPUs para desktops de lado? Na Computex 2023, Jensen Huang afirmou que não — e ficou “magoado” com a pergunta.

Jensen Huang afirma que Nvidia não deixou gamers de lado (Imagem: Divulgação/Nvidia)

Huang disse para Gordon Ung, editor do site PC World, que o público gamer continua relevante para a Nvidia. Para provar isso, o Jensen jaquetinha (apelido dado por uma parte do público) relembrou que a primeira IA desenvolvida pela empresa, o DLSS, foi para os jogadores. E que sem inteligência artificial não existiria ray tracing em tempo real.

CEO da Nvidia ficou “magoado” com questão sobre foco da empresa

Brincando com Ung, Jensen Huang disse que ficou “profundamente magoado” com a pergunta sobre o foco da Nvidia. O CEO-fundador da empresa, ambos cada vez mais ricos nos últimos dias, comentou ainda que a primeira aplicação de IA generativa da Nvidia é o ACE, que permitirá que NPCs desenvolvam diálogos naturais — ainda que a demonstração seja parecida com qualquer NPC de Skyrim.

Indiretamente, Jensen afirmou que inteligência artificial é o pilar das GPUs RTX, lançadas em 2020. Ao responder que DLSS foi a primeira IA criada pela Nvidia, o CEO da empresa afirmou que a tecnologia de deep learning é o pilar da série RTX.

DLSS foi primeira IA da Nvidia e feita para a RTX (Imagem: Divulgação/Nvidia)

Enquanto o público gamer está preocupado se será ou não abandonado pela Nvidia, a empresa atingiu a capitalização de US$ 1 trilhão de dólares. Com os novos anúncios de IA e computação de alto desempenho, a empresa se tornou a primeira fabricante de chips a chegar nesse valor de mercado. Agora, a Nvidia vira colega da Apple, Aramco, Amazon, Alphabet e Microsoft — estas duas últimas são suas clientes.

Se time que está ganhando não se mexe, podemos fazer um paralelo com “empresa que está lucrando não vai perder dinheiro”. Hoje, a Nvidia gera receita com gamers e IA. Ela não deixará as RTXs de lado — até porque os jogadores não estão pagando barato.

Com informações: PC World e WCCF Tech
Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers

Mais rico por causa das IAs, CEO da Nvidia diz que não abandonará os gamers
Fonte: Tecnoblog

Galaxy Z Flip 4 de 128 GB atinge menor preço histórico com mais de R$ 3 mil de desconto

Galaxy Z Flip 4 de 128 GB atinge menor preço histórico com mais de R$ 3 mil de desconto

Os smartphones dobráveis estão cada vez mais caindo na graça das pessoas. A versatilidade é um dos destaques do gadget, já que o celular pode se encaixar em diversos tipos de bolsos e bolsas. Pensando nisso, o Tecnoblog encontrou uma oferta histórica! O Samsung Galaxy Z Flip 4 está custando R$ 3.889 à vista, um desconto de 44,43% do preço na loja oficial da sul-coreana.

Samsung Galaxy Z Flip 4 (Imagem: Paulo Higa / Tecnoblog)

A oferta vem direto do Girafa, que está vendendo o aparelho na cor violeta com um desconto de R$ 3.110 de seu valor padrão. Na loja da Samsung, o celular dobrável está custando R$ 6.999. O pagamento precisa ser à vista no Pix.

Samsung Galaxy Z Flip 4 por R$ 3.889 à vista no Pix

Vale apontar que você pode pagar no cartão de crédito ou boleto, contudo, o valor sobe para R$ 4.321,10.

Achados do TB
Se você gosta de comprar celulares no precinho, então essa é a hora de você participar dos grupos do Achados do TB no WhatsApp e no Telegram.É dessa maneira que você se mantém informado das últimas novidades das mais diversas lojas e gadgets.Estamos sempre buscando pelos melhores descontos e ofertas, garantindo itens de qualidade para todo mundo. E o melhor: sem rabo preso!

Galaxy Z Flip 4 tem durabilidade e boa bateria

Enquanto os smartphones dobráveis estão se popularizando, a Samsung vem trabalhando para oferecer uma qualidade ainda mais impecável nos aparelhos.

No review do Galaxy Z Flip 4, apontamos que a sul-coreana fez mágica na redução das bordas, enquanto oferece uma tela de 6,7 polegadas. A dobradiça também está mais fina em comparação ao modelo anterior, mas a durabilidade é um ponto que a empresa tem bastante confiança. Ou seja, para quem acha que os celulares dobráveis duram pouco, esse modelo pode surpreender.

Na parte interna, o telefone traz 128 GB de armazenamento e 8 GB de memória RAM, o suficiente para o uso diário com diversos aplicativos diferentes. Ele já vem com Android 12, mas a Samsung tem uma política de quatro ciclos do sistema operacional, o que garante bastante tempo de atualizações para o Galaxy Z Flip 4.

Também preciso destacar a bateria de 3.700 mAh, que garante muitas horas de uso. Tudo isso é comandado pelo ótimo processador Snapdragon 8 Plus Gen 1 da Qualcomm.
Aviso de ética: ao clicar em um link de afiliado, o preço não muda para você e recebemos uma comissão.Galaxy Z Flip 4 de 128 GB atinge menor preço histórico com mais de R$ 3 mil de desconto

Galaxy Z Flip 4 de 128 GB atinge menor preço histórico com mais de R$ 3 mil de desconto
Fonte: Tecnoblog