A inteligência artificial pode ser uma ameaça?

Compartilhe

Acidente envolvendo robô K5 e criança, em shopping center, levanta discussão sobre a segurança de inteligência artificial / Divulgação
Acidente envolvendo robô K5 e criança levanta discussão sobre a segurança de inteligência artificial / Divulgação

O acidente envolvendo um robô de segurança e uma criança, na última semana num shopping center do Vale do Silício, retomou a discussão social sobre a segurança – ou falta dela – na relação entre humanos e máquinas com inteligência artificial.
Até o momento, ninguém sabe explicar o motivo de o robô K5, da empresa Knightscope, não ter notado o pequeno Harwim de um ano e seis meses, que passeava no shopping com a família.
O robô autônomo foi desenvolvido especialmente para realizar patrulha de segurança e possui sensores como câmera, microfone e radar.
Segundo relato da mãe, divulgado pelo site da ABC, o robô bateu na criança que caiu de cabeça no chão e foi “atropelado” pela máquina. Durante alguns segundos, o robô de 136 quilos e um metro e meio de altura passou por cima do menino, que sofreu escoriações num dos pés.
Ao Gizmodo, a empresa afirmou, por meio de nota, que esse foi o primeiro acidente envolvendo o dispositivo desde a sua criação.
No entanto, existem vários casos de acidentes com humanos ocasionados por erros de percepção de máquinas inteligentes.
Em julho do ano passado, um funcionário da Volkswagen em Baunatal, na Alemanha, morreu após ser amassado durante a manutenção de um robô. Segundo o porta-voz da Volkswagen, o dispositivo era usado na área de montagem da fábrica e não estava em funcionamento durante a manutenção.
Ainda segundo a empresa, o robô agarrou o funcionário pelo peito e o esmagou contra uma barra metálica. A Volkswagen acredita ter sido erro humano, e não falha mecânica.

Debate

Apesar de pouco discutido na sociedade, a inteligência artificial é tema de debate constante entre pesquisadores e acadêmicos.
Uma carta aberta assinada por especialistas, entre eles o físico Stephen Hawking e o empresário Elon Musk, está entre as mais famosas dessas ações.
A carta divulgada em janeiro do ano passado aponta a necessidade de mais estudos sobre os impactos sociais causados pela aplicação inteligência artificial em larga escala.
O documento destaca as possíveis vantagens de aplicar a inteligência artificial na vida das pessoas, como a cura de doenças e erradicação da fome. Porém, alerta sobre a necessidade de mais atenção às questões sociais, além da privacidade e segurança.
Uma parcela de estudiosos acredita, no entanto, que acidentes envolvendo robôs diminuiriam – ou até mesmo cessariam – se as máquinas contassem com uma espécie de sistema cognitivo artificial.
Com esse sistema, o robô poderia ler, aprender, adaptar-se, sentir e viver experiências reais como qualquer ser humano.
O assunto parece futurista, mas já era destaque das atividades da IBM em 2012, segundo o próprio site da empresa.
À época, Bernard Meyerson, vice-presidente de inovação e participante do seleto grupo da IBM Fellow (maior patente entre os pesquisadores da empresa), disse que pesquisadores da companhia em diferentes partes do mundo já estavam empenhados no assunto.
“Assim como o cérebro humano precisa interagir com o mundo usando vários sentidos, trazendo combinações desses avanços juntos, os sistemas cognitivos trará ainda mais valor e percepções aos robôs, ajudando-nos a resolver alguns dos desafios mais complicados”, justificou o cientista sobre a necessidade de atenção e urgência de criar robôs mais inteligentes.
O convívio entre humanos e robôs realmente inteligentes no cotidiano tem ar de filme de ficção científica, mas é motivo de preocupação real entre os cientistas.
Em junho deste ano, pesquisadores do Google, OpenAi e das universidades de Stanford e Berkeley divulgaram um estudo que reflete temor e preocupação quanto a possíveis erros técnicos durante o processo de aprendizagem desses sistemas.
As falhas, segundo o estudo, poderiam transformar vantagens apresentada pela inteligência artificial num cenário de filme de terror.
Os pesquisadores escolheram usar um simples robô de limpeza para chamar a atenção dos demais cientistas. A análise é focada em inteligência artificial aplicada a produtos para serem utilizados no cotidiano das famílias em um futuro breve.
Para exemplificar, foram usados cinco problemas, inicialmente de pouco impacto, que poderiam acontecer corriqueiramente caso a aprendizagem robótica sofresse falhas:

  1. Evitar efeitos colaterais negativos.Como garantir que o robô de limpeza não irá derrubar um vaso só para limpar mais rápido?
  2. Evitar hacking de recompensas. Como garantir que o robô não irá esconder a sujeira em vez de realmente limpar?
  3. Supervisão escalável. Como garantir que o robô de limpeza aprenda rapidamente e não fique frequentemente perguntando onde objetos, como uma vassoura, foram guardados?
  4. Exploração segura. Como garantir que o robô use as estratégias de limpeza, sem se confundir e colocar um objeto indevido na tomada, causando um acidente elétrico que destrua a casa inteira?
  5. Vontade de mudança. Como ensinar a máquina a reconhecer que suas habilidades não são úteis num ambiente diferente?

As questões éticas envolvendo o desenvolvimento e aplicação de inteligência artificial em robôs que conviveriam conosco na sociedade são temas recorrente há décadas.
O escritor de ficção científica Isaac Asimov definiu suas três leis da robótica em 1942. A primeira delas é “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”.
A preocupação atual dos especialistas é saber se ainda há tempo de a sociedade decidir sobre a ética da inteligência artificial antes de os robôs entrarem de vez nas nossas casas.


Compartilhe
Previous Article

Por que a Natura quer estar perto das startups

Next Article

EDP procura startups de energia

You might be interested in …