Desenvolvimento

14 dez, 2017

Inteligência artificial – ou seria inteligência aumentada?

Publicidade

Inteligência Artificial (ou AI, na sigla em inglês) está em alta. Uma infinidade de empresas tem investido na tecnologia, e o Gartner estima que quase todos os softwares terão AI integrada até 2020. Segundo a consultoria, essa deve ser uma das cinco prioridades de investimento para mais de 30% dos CIOs pelo mundo.

No entanto, muito do que temos hoje não pode ser considerado AI, mas sim Inteligência Aumentada. A diferença pode parecer pequena, mas as aplicações desses conceitos funcionam de forma bastante distinta. A Inteligência Artificial é a ideia de um sistema que reproduz a cognição humana e funciona de forma autônoma. Já a Inteligência Aumentada tem como base sistemas com tecnologia cognitiva que apoia o ser humano, seus planejamentos e análises.

As duas vertentes se iniciaram na década de 50, mas o termo Inteligência Artificial passou a ser aplicado de forma mais ampla, nomeando inclusive alguns produtos que são resultado de pesquisas em Inteligência Aumentada. E é nesta tecnologia que eu aposto para o futuro. Isso porque o ser humano não será retirado da equação, do momento da decisão.

Há muitos riscos em uma Inteligência Artificial que, de fato, toma decisões por si só. Há, inclusive, uma infinidade de filmes apocalípticos sobre o tema. No mais famoso – O Exterminador do Futuro – a AI de uma empresa chamada Skynet se rebela e passa a destruir o mundo. Guardadas as devidas proporções, fantasias e viagens no tempo, há de se convir que o ser humano precisa ter controle sobre a tecnologia. O próprio Stephen Hawking já disse que a inteligência artificial pode acabar com a humanidade se não soubermos controlá-la.

Quando deixamos de lado o filme estrelado por Arnold Schwarzenegger e pensamos em algo palpável e próximo à nossa realidade, como os carros autônomos, os perigos reais começam a surgir. No caso de um acidente iminente e sem chances de ser evitado, por exemplo, a máquina deverá escolher quem será ferido com mais gravidade ou até morrer. Como lidar com isso? Quem será responsável pelo acidente? Como as montadoras e seguradoras devem agir nesse caso?

Os dilemas morais, éticos, tecnológicos e de responsabilidade existem e precisarão ser enfrentados com muito cuidado se algum dia chegarmos a esse patamar. E esse tipo de questão torna as aplicações de AI pouco viáveis, porque retira o ser humano da jogada e o substitui quase que completamente.

Já a Inteligência Aumentada se aproxima, de fato, do que há hoje. Podemos usá-la em aplicações que verificam informações online sobre diagnósticos e apoiam o parecer de um médico ou em análises financeiras parcialmente interpretadas que suportam tomadas de decisão. Esse tipo de uso, com base na análise de dados e que caminha lado a lado com a decisão humana, é mais simples, eficiente e seguro.

Acredito que o ser humano é – e sempre será – essencial para tomar decisões. As máquinas não são capazes de captar e interpretar todas as nuances das nossas relações, ou mesmo ter algo próximo à inexplicável intuição. Isso é inerente da nossa espécie. Esse é o uso que precisamos de imediato, e é nele que devemos investir, ao menos enquanto não soubermos como mitigar os riscos da Inteligência Artificial e transformá-la em algo que não sairá do controle.