Siga-nos!
Siga-nos!

Brevemente

O papel da visão por computador nos veículos autónomos

O papel da visão por computador nos veículos autónomos: Como a visão por computador é utilizada para detetar obstáculos, peões e outros veículos

A visão por computador é a base de muitas tecnologias novas e emergentes, que muito provavelmente se tornarão a norma num futuro não muito distante. Uma grande conquista tornada possível graças à visão por computador e à inteligência artificial é o sistema de condução autónoma já presente em alguns automóveis. Não há dúvida de que os carros autónomos serão uma visão comum no futuro. Mas sabe como estes funcionam?

Como a visão por computador é utilizada nos veículos autónomos?

Quando conduzimos, usamos os nossos olhos para ver a estrada e tudo o que está à nossa volta e, com essa informação visual, tomamos decisões (virar, acelerar, abrandar, etc.). Os veículos autónomos fazem o mesmo, mas o computador “vê” por si. Para o fazer, é utilizada uma combinação de várias tecnologias.

Uma dessas tecnologias é a deteção de objetos, que é possível através da visão por computador. Treinando CNNs (Convolutional Neural Networks), um tipo de algoritmo de deep learning, fazendo-o analisar vários tipos de imagens e ensinando-o a classificar corretamente essas imagens.

Os veículos cruzam a informação previamente aprendida, com câmaras e sensores avançados, analisando o ambiente que os rodeia e reconhecendo peões, obstáculos, sinais de trânsito, outros veículos, etc… Tudo isto em tempo real. No entanto, há algum trabalho a fazer na criação de um carro autónomo… vejamos!

1) Recolha de dados de treino

A aquisição de conjuntos de dados de treino de alta qualidade é crucial para o sucesso dos automóveis autónomos alimentados por IA. Os dados podem ser recolhidos através de métodos como: 1) captura de imagens durante a condução semi-autónoma; ou 2) utilização de motores de jogos de computador (que é uma opção promissora para o treino de visão computacional). São necessárias várias iterações de imagens geradas pela câmara para garantir uma deteção eficaz de objetos. Além disso, engloba vários elementos, como objetos rodoviários, sinais, faixas de rodagem, pessoas, edifícios e outros veículos. Cada elemento requer tipos de anotação específicos, como polilinhas ou anotações de pontos 3D, o que realça a complexidade e a grande quantidade de dados necessários para treinar esses modelos.

2) Etiquetagem de dados

A etiquetagem de dados para veículos autónomos é também um processo de trabalho intensivo que depende do esforço humano para identificar e classificar com precisão elementos em imagens em bruto. Manter a precisão em projetos de grande escala é um desafio, exigindo uma comunicação eficaz, sistemas de feedback e diretrizes de anotação claras. A diversidade de dados introduzidos é crucial para que os modelos de treino façam previsões exatas em várias condições de estrada. Quer seja através de rotulagem interna, subcontratada ou de crowdsourcing, é vital um processo de gestão robusto para desenvolver um pipeline de anotação escalável.

3) Condições da estrada e peões

Os modelos de condução autónoma enfrentam variações de desempenho devido às condições meteorológicas, à iluminação e a fatores ambientais, o que exige diversos conjuntos de dados. Naturalmente, a tecnologia de visão por computador permite a deteção de objetos, mas podem surgir desafios, por exemplo, quando os objetos estão ocultos ou em movimento. Assim, os veículos autónomos têm de detetar eficazmente os peões, estimar as suas poses e prever movimentos, tendo em conta fatores como sinais de trânsito sujos ou na sombra. Assim, para ultrapassar estes desafios e garantir a segurança de todos, é crucial incorporar a deteção de objetos em tempo real, a identificação precisa de peões e o tratamento eficiente de objetos em movimento.

4) Visão estéreo

A segurança nos veículos autónomos exige uma estimativa precisa da profundidade, apoiada por ferramentas como o LIDAR, o radar da câmara e a visão estéreo. No entanto, surgem desafios devido às diferentes disposições das câmaras, o que leva a problemas como a distorção da perspetiva e representações não correspondentes, dificultando o cálculo da distância. Ultrapassar estes desafios é vital para uma estimativa fiável da profundidade nos automóveis autónomos.

5) Segmentação semântica e segmentação semântica de instâncias

A segmentação semântica e a segmentação de instâncias representam desafios para os automóveis autónomos! Porquê? Bem, por exemplo, devido a limitações de desempenho e à confusão causada por fatores como a iluminação e as condições meteorológicas. A variedade do conjunto de dados e a contagem de iterações são cruciais para obter resultados precisos em projetos de visão computacional para veículos autónomos.

6) Visão multicâmara e estimativa de profundidade

A estimativa adequada da profundidade é crucial para a segurança dos veículos autónomos. A distância entre as lentes da câmara e os objetos é essencial para construir um sistema de visão estéreo fiável. No entanto, uma boa distância entre as lentes também pode levar à distorção da perspetiva, o que dificulta cálculos precisos. Além disso, as variações na precisão dos pixéis entre câmaras podem afetar os cálculos de distância, o que torna importante a resolução de problemas de representação não paralela em automóveis autónomos.

Como é que a visão computacional fez avançar os veículos autónomos?

Apesar dos desafios, não é preciso dizer como os veículos autónomos avançaram através da tecnologia de visão computacional. Estas são algumas das razões:

  • Mapas 3D – As câmaras dos veículos autónomos captam imagens em tempo real para criar mapas 3D, melhorando a compreensão e a segurança.
  • Deteção de linhas de faixa de rodagem – O corte de faixas de rodagem é um aspeto desafiante dos veículos autónomos, mas a visão por computador e os modelos de aprendizagem profunda podem utilizar técnicas de segmentação para identificar linhas e curvas, eliminando a necessidade de intervenção humana/condutor e reduzindo o risco de acidentes.
  • Ativação de airbags – A tecnologia de visão por computador permite a descodificação em tempo real dos dados dos veículos circundantes, permitindo que os automóveis autónomos antecipem potenciais colisões ou incidentes. Esta capacidade avançada permite a ativação atempada de airbags para proteger os passageiros.
  • Condução em modo de pouca luz – Para se adaptarem a condições de luz variáveis, os veículos autónomos alternam entre os modos normal e de pouca luz. Os algoritmos de visão por computador, auxiliados por LIDAR, sensores HDR, radares FMCW e outras tecnologias, podem identificar e ajustar-se a condições de pouca luz.

AID.VISION: Deteção automática de incidentes em estradas

AID.VISION - Sistema de deteção automática de incidentes em estradas pela MakeWise

O AID.VISION é uma solução alimentada por sistemas de Inteligência Artificial, que deteta automaticamente diversos tipos de incidentes e desencadeia alertas, em tempo real, para um centro de operações.

  • Deteção automática de estradas
  • Deteção automatizada de incidentes
  • Alertas e avisos em tempo real
  • Integração com outros sistemas TI

Confirme aqui todas as soluções da MakeWise, e inicie o processo de transformação digital da sua empresa. Contacte-nos!