23 de abr de 2018

O avanço da inteligência artificial (e dos desafios éticos envolvidos)

Udacity Brasil

Quem nunca bateu um papo (ou pelo menos tentou) com as assistentes pessoais comandadas por voz, como no filme Ela? A inteligência artificial (AI, na sigla em inglês) está por toda parte, embora nem sempre você se dê conta disso. De Siri e Alexa, passando pelos veículos autônomos e por aplicativos que sugerem o próximo vídeo ou música que você irá gostar: tudo isso precisa de uma boa dose de AI para funcionar.

Esse tipo de tecnologia utiliza grandes bases de dados e algoritmos com poderosas capacidades preditivas e suas aplicações podem ser as mais variadas, tanto na indústria, comércio e prestação de serviço como dentro de sua própria casa.

A inteligência artificial tem sido usada para otimizar linhas de produção, controlar estoques, detectar fraudes, realizar pesquisas, atender clientes, traduzir idiomas e até criar arte.

Tamanha inovação traz também grandes questões que inquietam a sociedade e os pesquisadores. Até onde a inteligência artificial pode ir? Quais são os desafios éticos para o desenvolvimento da AI? Onde fica a tênue linha que divide o que é seguro e o que é arriscado demais nesse campo?

Leia: O que é inteligência artificial? As perguntas mais frequentes

A questão do acompanhamento humano

"Trata-se de um tema bem amplo, porque depende da aplicação do sistema. Quando falamos dos chamados sistemas críticos – aqueles em que há vidas em risco –, como nos veículos autônomos, as questões éticas são bastante importantes. Nesses casos, normalmente o que se tem recomendado é que haja um acompanhamento humano, para não deixar tudo por conta apenas do sistema artificial", explica Fernando Osório, professor e pesquisador do Departamento de Sistemas de Computação do Instituto de Ciências Matemáticas e de Computação da USP em São Carlos.

O professor explica que o mesmo raciocínio vale para a AI utilizada na medicina diagnóstica. "Já se sabe atualmente que a análise de imagens para detecção de câncer de pele é mais precisa quando feita por uma máquina do que pelo olho humano. Mas isso não significa que o resultado deva ser comunicado direto para o paciente, substituindo o contato interpessoal com o médico", afirma Osório. "É o profissional da saúde que, por meio da relação com o paciente, vai orientá-lo sobre o procedimento adequado a partir dali", defende ele.

A escolha do bancos de dados

Para Margaret Mitchell, pesquisadora de AI do Google, uma questão preocupante e que merece atenção no campo da AI é a escolha do banco de dados que são utilizados nos sistemas artificiais.

"Eu percebi que, enquanto eu trabalhava no desenvolvimento da AI, tarefa por tarefa, a cada conjunto de dados, eu estava criando lacunas enormes, buracos e pontos cegos", disse ela durante uma TED Talk.

"E, fazendo isso, eu estava codificando todos os tipos de ideias preconcebidas. Tendências que refletem um ponto de vista limitado a um simples conjunto de dados. Tendências que podem representar preconceitos humanos encontrados nesses dados, como racismo ou estereótipos", afirma.

Ela explica que, quando o sistema se limita a um único conjunto precário de dados, ele tende a carregar preconceitos que a AI pode amplificar no futuro.

"Os humanos evoluem devagar e levam tempo para entender as questões de interação interpessoal e meio ambiente. Em contraste, a AI está evoluindo de forma incrivelmente rápida. É preciso discutir o que a tecnologia de hoje significará amanhã", alerta a pesquisadora.

As (várias) questões éticas envolvendo a AI

São muitas as preocupações relacionadas ao avanço da inteligência Artificial ao redor do mundo. O Fórum Econômico Mundial elencou nove das mais frequentes delas:

  1. Desemprego gerado pela substituição da mão de obra por máquinas autônomas.
  2. Desigualdade causada pela má distribuição da riqueza gerada pelas máquinas.
  3. Alterações do comportamento humano e das relações interpessoais.
  4. Erros cometidos pelas máquinas autônomas, alguns podendo ser fatais aos seres humanos.
  5. Preconceitos reproduzidos por máquinas e sistemas que utilizam bases de dados ruins ou pouco confiáveis.
  6. Os riscos das armas autônomas.
  7. O receio de que a inteligência artificial venha a causar consequências ainda inimagináveis pelos humanos.
  8. O medo de que a AI um dia supere as capacidades e a inteligência humana.
  9. A interação entre humanos e os robôs.

Esse tipo de preocupação não é exclusividade de pessoas leigas ou com pouca informação sobre o assunto. Personalidades de destaque das áreas de tecnologia e ciências também demonstram temores quando se trata do futuro da AI. É o caso de Elon Musk, fundador e CEO da SpaceX e Tesla.

"Eu me preocupo com algumas direções que a AI poderia tomar – e que não seriam boas para o futuro – se nós viermos a criar uma super inteligência digital que supere demais a inteligência humana. Então eu criei a OpenAI", afirmou Musk na conferência Recode, em 2016.

Fundada em 2015, a OpenAI é uma organização sem fins lucrativos que visa descobrir e traçar caminhos seguros para a inteligência artificial como um todo. São 60 pesquisadores e engenheiros que se dedicam em tempo integral à causa, trabalhando em projetos de longo prazo. As descobertas são publicadas em um blog e também em importantes conferências sobre o tema. Além disso, são disponibilizadas online gratuitamente ferramentas para acelerar o avanço da AI de maneira consciente.

"Acho importante que o poder da AI não esteja concentrado nas mãos de poucos e acabe levando a um mundo que não queremos", afirma Musk. "É difícil prever exatamente como o futuro será. Por isso, na OpenAI nós queremos fazer o que for possível para aumentar a probabilidade de que o futuro seja bom."

Ao lado de uma porção de outras personalidades preocupadas com o assunto, Musk é signatário de uma carta aberta destinada à Convenção da Organização das Nações Unidas sobre Armas Convencionais. O documento chama a atenção para a questão de armas autônomas letais. De acordo com a carta, esse tipo de armamento pode causar uma revolução nas guerras.

"Uma vez desenvolvidas, estas armas permitirão que os conflitos sejam travados em escala maior do que nunca, e em escalas de tempo mais rápidas do que os humanos podem compreender. Elas podem ser armas de terror, armas que déspotas e terroristas usam contra populações inocentes – e armas hackeadas que se comportam de maneiras indesejáveis. Nós não temos muito tempo para agir. Uma vez que esta caixa de Pandora for aberta, será difícil fechar", alerta o texto.

Mais preocupações

Outro nome de destaque que alertava sobre os possíveis riscos associados à AI era o físico britânico Stephen Hawking. Em uma entrevista à BBC em 2014, Stephen Hawking afirmou que o desenvolvimento de uma inteligência artificial completa poderia acabar com a humanidade.

Em 2016, em um breve discurso, Hawking voltou a reforçar o potencial e as armadilhas da desse tipo de tecnologia. "Eu acredito que não há diferença profunda entre o que pode ser alcançado por um cérebro biológico e o que pode ser alcançado por um computador. Portanto, os computadores podem, em teoria, emular a inteligência humana e excedê-la", afirmou.

De acordo com o físico, isso poderia levar à erradicação de doenças e da pobreza, por exemplo. Mas também seria capaz de levar a problemas graves, como armas autônomas, crises econômicas e máquinas que desenvolvem vontades próprias. "A ascensão da AI poderá ser a melhor ou a pior coisa que já aconteceu à humanidade. Nós ainda não sabemos."

O filósofo sueco Nick Bostrom também segue pela mesma linha de pensamento. Em uma TED Talk, ele explicou à plateia que a inteligência artificial costumava ser a simples colocação de comandos em uma caixa e, de lá, só poderia sair o que havia sido colocado. Mas ele acredita que isso pode mudar.

"A inteligência artificial não está perto de ter o mesmo poder de aprender e planejar que os seres humanos têm. O córtex cerebral têm alguns truques algorítmicos que ainda não sabemos como reproduzir em máquinas. Mas a questão é: quão longe estamos de conseguir copiar esses truques?", questionou ele na palestra.

"Ainda neste século, os cientistas podem aprender a despertar a força da inteligência artificial. E acho que então poderemos ver uma explosão de inteligência. Quando houver a super inteligência, o futuro da humanidade talvez dependa daquilo que a superinteligência irá fazer", prevê o filósofo.

Segundo ele, a principal tarefa é não confiar demais na habilidade humana de conseguir manter a super inteligência sob controle para sempre. "Cedo ou tarde, ela escapará. Acredito que a grande questão é criar uma super inteligência que possa estar do nosso lado quando isso acontecer. Que ela compartilhe dos mesmos valores que nós", finaliza.

Outro ponto de vista

Nem todos compartilham dessa visão. Steve Wozniak, cofundador da Apple, costumava ser negativo e apreensivo sobre o futuro da AI. Não mais. "A inteligência artificial não me assusta", disse ele em um evento em janeiro de 2018.

"Uma menina de 2 anos vê um cão uma vez e sabe o que é um cachorro para sempre. Enquanto isso, um computador precisa ver uma imagem várias vezes antes de reconhecer o que está olhando ", comentou Wozniak. "Para que as máquinas se sobreponham aos seres humanos, elas teriam que percorrer todos os passos da sociedade, escavar minas de pedreiras, refinar materiais, fabricar roupas e alimentos, construir todos os produtos e tudo o que temos em nossas vidas", afirmou ele.

Leia: NASA disponibiliza dados e APIs gratuitamente

É preciso mesmo ter medo?

Segundo explica Jacques Wainer, professor titular do Instituto de Computação da Unicamp, uma preocupação real é sobre a possibilidade de que a AI venha a desempregar muitas pessoas, como trabalhadores da indústria, que podem ser cada vez mais substituídos por máquinas, e motoristas, com o advento dos carros autônomos.

Mas esqueça as cenas apocalípticas de filmes de ficção científica em que robôs malignos saem destruindo cidades inteiras. Pode ficar tranquilo. Isso não irá acontecer – pelo menos não em um futuro próximo.

Para Wainer, nenhum sistema de AI que está atualmente em funcionamento apresenta vontade própria. Ou seja, apesar do nome – inteligência artificial – eles não pensam sozinhos. "Esses sistemas apenas reproduzem o que aprendem a partir de muitos dados. Eles não têm vontades, objetivos, nem nada do tipo", esclarece o professor.

Ele ainda acrescenta: "Não existe, por exemplo, um sistema que perceba a humanidade como um risco para sua sobrevivência e por isso queira se 'rebelar' contra ela. Os sistemas não são maus. E basta os desligarmos para que eles parem de rodar", observa.

Fernando Osório também pensa dessa forma. "Não é preciso ter medo que a AI irá acabar com a raça humana. Já há drones com a missão de matar em guerras, mas ainda há programas e pessoas por trás dessas máquinas. As máquinas em si não têm consciência nem intencionalidades como o ser humano tem", finaliza.

As opiniões divergem, mas de um jeito ou de outro a inteligência artificial vai delinear o futuro. Para quem quer fazer parte dessa revolução, a Udacity oferece diversos programas Nanodegree de ponta sobre o tema. Saiba mais aqui!

Leia também:

Sobre o autor
Udacity Brasil

A Udacity, conhecida como a "Universidade do Vale do Silício", é uma plataforma online e global que conecta educação e mercado para ensinar as habilidades do futuro – de data science e marketing digital à inteligência artificial e desenvolvimento. Hoje, há mais de 7 mil alunos ativos no país e 50 mil pelo mundo.