O Estado de S. Paulo/The New York Times
Cresce entre os projetistas de veículos autônomos o consenso de que carros autônomos não têm percepção suficiente para serem satisfatoriamente seguros. Por isso, agora os engenheiros estão pensando em utilizar sensores e tecnologia mais sofisticados. “Ainda há deficiências em relação aos sensores”, afirmou Bobby Hambrick, diretor executivo da AutonomouStuff, que produz tecnologia autônoma para pesquisadores e desenvolvedores. Ele e outros ressaltam que o problema está no fato de os carros não conseguirem perceber o que está em volta deles se não conseguem ver os objetos.
Até agora, o modelo padrão para os carros autônomos tem usado combinações de sensores – câmeras de vídeo, radares, sensores ultrassônicos e “lidar” (termo em inglês designando Light Detection And Ranging, uma tecnologia que emprega sensores que utilizam laser para detectar distâncias entre objetos).
O principal problema é que os carros autônomos não conseguem enxergar bem o suficiente para manobrar com segurança em situações de tráfego intenso nem enxergar suficientemente longe para encarar o tráfego em estradas, sob qualquer condição de clima. Câmeras de vídeo podem se atrapalhar com luzes ofuscantes. O radar padrão consegue definir as velocidades relativas dos objetos, mas tem visão ruim. Sensores ultrassônicos conseguem percebem somente objetos próximos – e com pouca clareza.
A tecnologia lidar, ainda que capaz de produzir imagens 3D, tem limitações em relação à distância e pode ser bloqueada por chuvas pesadas. E nem mesmo o mais sofisticado software consegue ajudar se não for alimentado com os dados percepcionais necessários para sua operação. As empresas estão considerando outras tecnologias, como câmeras infravermelho de longo alcance, que produzem imagens de objetos invisíveis a olho nu, e um radar de subsolo que detecta elementos do subterrâneo.
Uma tempestade que caiu sobre uma feira de tecnologia um ano e meio atrás pode se tornar um marco na corrida pelo desenvolvimento de carros autônomos. Uma empresa, a AdaSky, demonstrou como suas câmeras infravermelho de longo alcance conseguiam detectar pessoas a mais de 100 metros de distância em meio à forte chuva, enquanto outras empresas tiveram de manter seus veículos estacionados.
As câmeras infravermelhas da AdaSky conseguem detectar comprimentos de onda abaixo do espectro visível, que indicam calor. São particularmente eficazes em enxergar seres vivos na escuridão e foram utilizadas no passado em sistemas de visão noturna. Outras tecnologias desconhecidas podem ser trazidas a campo, como o radar de subsolo da WaveSense.
Com sensores instalados sob o veículo, o radar é capaz de criar uma impressão digital das caraterísticas geológicas únicas sob o pavimento, identificando com precisão onde o veículo está em todos os momentos. A WaveSense utiliza módulos de radar que conseguem penetrar três metros no solo, bem abaixo do limiar de congelamento. Tarik Bolat, diretor executivo da WaveSense, afirmou que o radar da empresa funcionou a velocidades de até 112 quilômetros por hora.
Na corrida da tecnologia lidar, empresas como Luminar e Blackmore Sensors and Analytics estão desenvolvendo modelos que trabalham com comprimentos de onda mais longos que, segundo acreditam, proporcionarão sistemas de maior alcance capazes de enxergar através de chuva fraca e neve, possibilitando velocidades compatíveis com as vias expressas (depois de obter financiamento de US$ 530 milhões, a Aurora Innovation anunciou planos para comprar a Blackmore em maio).
E os fabricantes de veículos “ainda estão todos no modo de desenvolvedor”, afirmou Jim Cury, cofundador da Blackmore. Até a Ford, que tem trabalhado numa plataforma de carro autônomo há vários anos, concorda. “O hardware de sensor que estamos utilizando ainda está em desenvolvimento, especialmente em termos de alcançar a possibilidade de produção em massa e o nível de qualidade necessários à indústria automotiva”, afirmou Alan Hall, porta-voz da Argo AI, uma subsidiária da Ford no setor de carros autônomos. “Ainda há muita inovação acontecendo no campo do hardware”. (O Estado de S. Paulo/The New York Times/John R. Quain, tradução de Augusto Calil)