O primeiro celular com câmera pousou na costa americana em 2002. Desde então, os OEMs estão correndo para produzir melhores câmeras móveis. O surgimento da era do smartphone em 2008 e a ascensão das mídias sociais tornaram uma boa câmera de telefone uma obrigação para todos que desejam acompanhar os Joneses. Mas antes que as câmeras móveis começassem a tirar a maioria das fotos do mundo, as fotos eram tiradas com dispositivos maiores do que quase todos os dispositivos móveis que os substituíram. Como isso é possível? O que está acontecendo dentro do nosso telefone que permite tirar fotos de 200MP?
Todas as câmeras de smartphones são feitas de três partes básicas. A primeira é a lente que direciona a luz para a câmera. O segundo é o sensor que converte os fótons de luz focalizados em um sinal elétrico. E o terceiro é o software que converte esses sinais elétricos em uma foto pronta para o Instagram. Vamos dar uma olhada em cada uma dessas partes.
Lentes
Antes que a luz alcance o sensor de imagem, ela deve passar pela lente. E antes disso, passa por um pequeno orifício no corpo do telefone. O tamanho desse buraco é chamado de abertura e determina quanta luz entra no sensor da câmera. Geralmente, uma abertura maior é boa para câmeras móveis porque significa que a câmera tem mais luz para trabalhar.
Assim que a luz entra no módulo da câmera, a lente capta a luz recebida da sua foto e a direciona para o sensor. As câmeras dos smartphones são feitas de muitas lentes de plástico chamadas elementos. Devido à natureza da luz, diferentes comprimentos de onda de luz (cores) são refratados (curvados) em diferentes ângulos à medida que passam por uma lente. Isso significa que as cores da sua cena são projetadas no sensor da câmera fora de alinhamento. As câmeras precisam de várias lentes para transmitir uma imagem nítida ao sensor para corrigir este e outros efeitos semelhantes.
Fonte: OnePlus
Foco
Uma função essencial das lentes que tradicionalmente tem sido abstraída do usuário é o foco. Alguns aplicativos de câmera permitem que você controle manualmente o foco da câmera. No entanto, a maioria deles o controla por meio de software usando o sensor, hardware extra como um telêmetro a laser ou uma combinação dos dois.
O foco automático baseado em software (conhecido como foco automático passivo) usa dados do sensor de imagem para determinar se a imagem está em foco e ajusta as lentes para compensar. A técnica de foco automático passivo comum é baseada na detecção do contraste da imagem e no ajuste do foco até que seja maximizado. Este método é totalmente baseado em software, tornando-o a opção mais barata. No entanto, é lento e não funciona tão bem em condições de pouca luz.
Um método um pouco mais rápido é chamado de foco automático de detecção de fase. Ele garante que a mesma quantidade de luz chegue a dois sensores próximos no fotosensor. Os sistemas PDAF tradicionais contam com photosites dedicados no sensor (cerca de 5% de todos os photosites) para medir a luz que vem do lado direito da lente ou do lado esquerdo. A imagem está em foco se os photosites voltados para a direita medirem a mesma intensidade de luz que suas contrapartes voltadas para a esquerda. Se eles não medirem a mesma intensidade de luz, é possível calcular o quanto a câmera está fora de foco, tornando os sistemas PDAF mais rápidos do que os métodos de detecção de contraste. Os sistemas PDAF modernos (como no sensor de imagem Isocell HP2 no Samsung Galaxy S23 Ultra) usam 100% dos photosites no sensor de imagem e usam photosites voltados para cima e para baixo, além de photosites voltados para a esquerda e para a direita.
O foco automático ativo usa hardware extra para determinar a distância do telefone ao seu alvo. Os primeiros sistemas de foco automático ativo usaram um sonar semelhante ao Soli no Google Pixel 4. Alterações nos sistemas de foco automático ativo adicionaram um laser infravermelho de baixa potência para estimar a distância, mas pode ser enganado por outras fontes de luz infravermelha, como incêndios ou outros smartphones.
Sensor
O sensor é uma fina bolacha de silício. Sua única função é transformar fótons (luz) em elétrons (sinais elétricos). Essa conversão fotovoltaica acontece em milhões de photosites em toda a pequena superfície do sensor. Se nenhum fóton atingir o photosite, o sensor registra esse pixel como preto. Se muitos fótons atingirem o photosite, esse pixel é branco. O número de tons de cinza que o sensor pode registrar é conhecido como sua profundidade de bits.
Então, como seu telefone tira fotos coloridas? Sobreposto em cima de cada photosite está um filtro de cor que permite apenas a passagem de certas cores de luz. A matriz de filtros de cores Bayer é a mais comum e divide cada quadrado 2 × 2 de photosites em um vermelho, um azul e dois filtros verdes (RGGB). Os sensores SuperSpectrum da Huawei são uma exceção notável aos CFAs RGGB tradicionais. A Huawei usa filtros amarelos (RYYB) em vez de filtros verdes para permitir a passagem de mais luz, melhorando os dados de luminância. Esse mosaico de dados de cor e luz deve ser convertido em uma imagem colorida após o fato por meio de complicados algoritmos de demosaicing.
As duas métricas do sensor a serem observadas são seu tamanho e o tamanho de seus pixels. Os tamanhos dos sensores são medidos em frações de polegada. De um modo geral, um sensor maior (como o sensor de 1/1,31 polegadas no Google Pixel 7 Pro) produz fotos melhores porque possui mais photosites e maiores.
Photosites (cujo número constitui a contagem potencial de megapixels da câmera) são medidos em micrômetros (µm). Photosites maiores são mais capazes de captar luz, tornando-os ideais para condições de pouca luz. Photosites menores não significam necessariamente fotos de qualidade inferior. Ainda assim, é uma métrica que você pode querer considerar se pretende usar a câmera do telefone em condições de pouca luz. A Samsung compensa pequenos photosites (é a única maneira de encaixar 200 milhões deles em um chip) “colocando” vários photosites. Em seus sensores mais recentes, trata 4 × 4 quadrados de 16 photosites como um único “pixel”, permitindo coletar mais dados de luminância.
Estabilização de imagem
Ao tentar tirar uma boa foto, um dos ingredientes essenciais é uma plataforma estável. Os fabricantes de smartphones sabem que provavelmente você não terá um tripé no bolso, então eles equipam seus telefones com tecnologia para atenuar o movimento da câmera o máximo possível. A estabilização de imagem vem em dois tipos básicos: óptica e eletrônica.
A estabilização ótica de imagem (OIS) conta com um giroscópio para detectar o movimento do telefone e pequenos motores ou eletroímãs para mover as lentes e o sensor para compensar. OIS é ideal para situações de pouca luz onde o sensor de imagem precisa de mais tempo para captar a luz.
A estabilização eletrônica de imagem (EIS) depende do acelerômetro do telefone para detectar qualquer movimento. Em vez de mover as partes da câmera, ele move os quadros ou exposições da imagem. Como as exposições são alinhadas com base no conteúdo da imagem e não no quadro do sensor de imagem, a imagem ou vídeo final tem uma resolução reduzida.
Muitos modelos de telefone mais recentes usam uma combinação de ambos os sistemas, às vezes chamados de estabilização de imagem híbrida. O uso de ambos os sistemas em conjunto oferece o melhor dos dois mundos, especialmente para filmagens de vídeo.
Programas
Uma vez que o sensor de imagem tenha feito seu trabalho e convertido a luz trazida pelas lentes em um sinal elétrico, é o trabalho do processador de sinal de imagem (ISP) transformar esses 1s e 0s em uma imagem digna do Snapchat.
Os dados enviados para o ISP são essencialmente uma imagem em preto e branco (uma imagem RAW para os fotógrafos por aí). A primeira tarefa do ISP é trazer de volta os dados de cores com base no arranjo conhecido do CFA. Agora temos uma imagem, mas seus pixels têm intensidades variadas de vermelho, verde ou azul (ou vermelho, amarelo e azul para telefones Huawei).
O próximo passo é um processo chamado demosaicing. É aqui que o ISP modifica as cores dos pixels com base nas cores de seus vizinhos. Se, por exemplo, houver muitos pixels verdes e vermelhos em uma área, mas não muito azul, o algoritmo de demosaicing os converterá em amarelo.
Finalmente temos uma foto! A maioria dos ISPs aplica redução de ruído e nitidez após a demosaiagem. Ainda assim, todo OEM tem seu próprio pipeline e algoritmos para produzir uma imagem final. O Google, em particular, é conhecido por usar algoritmos desenvolvidos por IA para produzir algumas das melhores fotos de smartphones.
Você está pronto para tirar algumas fotos?
Agora que você tem uma melhor compreensão de como sua câmera funciona, é hora de sair e tirar mais fotos. E, por falar em mais fotos. Use nossas dicas e truques do Google Fotos para domar sua coleção de fotos. E se você estiver procurando por um telefone com uma câmera mais sofisticada, saber como a câmera do telefone funciona o ajudará a decidir qual câmera do telefone é ideal para você.