Inteligência artificial deve seguir princípios de governança
Ética, rastreabilidade de decisões e responsabilidade corporativa devem estar nos algoritmos, diz presidente da IBM
As soluções que utilizam inteligência artificial precisam seguir os princípios básicos de governança. Um dos principais desafios no desenvolvimento dessa tecnologia é garantir que ela funcione de forma ética, que as decisões sejam imparciais e estejam alinhadas com os valores da organização, assim como rastrear e explicar como elas foram tomadas. Essas ferramentas têm algoritmos que emulam características humanas na tomada de decisão. “A governança da inteligência artificial é um dos temas chave atuais. Existe uma preocupação para se criar padrões, estruturas de análise e regulações internas para o desenvolvimento da tecnologia”, afirma Ana Paula Assis, presidente da IBM América Latina e palestrante do almoço realizado no dia 20 de fevereiro, cujo tema foi Inteligência Artificial.
As discussões sobre governança devem acontecer no início dos projetos. Deve estar claro para os desenvolvedores e programadores qual o propósito da plataforma, o objetivo do algoritmo. Ana Paula cita o caso polêmico da Cambridge Analityca, empresa britânica que capturou dados de usuários do Facebook de forma irregular para criar campanhas que influenciaram as eleições norte-americanas e no resultado do Brexit, saída do Reino Unido da União Europeia. “O propósito era correto?”, questiona.
Neste processo de desenvolvimento, questões éticas precisam estar contempladas no algoritmo. A ferramenta precisa ter critérios para avaliar se uma medida que traz resultados muito bons deve ser adotada, ou não, caso ela não esteja alinhada com os valores da organização. Um exemplo extremo é a decisão entre preservar vidas, ganhos financeiros ou operacionais. “O algoritmo deve prever regras rígidas de compliance para evitar que resultados melhores quebrem esses princípios”, diz a presidente da IBM. Ela sugere conselhos de ética dentro das empresas para tratar de inteligência artificial.
A confiabilidade e alinhamento das decisões depende da qualidade dos bancos de dados e da ausência de um viés cognitivo nessas informações. Se uma máquina é treinada em uma base de dados enviesada, cujo conteúdo influencia as conclusões para um determinado caminho, os resultados obtidos pela inteligência artificial também serão tendenciosos para esse caminho. Um exemplo: no passado as mulheres não tinham acesso a créditos bancários. Os contratos tinham que ser assinados pelos maridos. Se uma máquina é treinada nesta base, a conclusão será que mulheres não são boas clientes para empréstimos. O desafio é detectar qualquer tipo de viés que possa contaminar o algoritmo e criar mecanismos para harmonizar os dados.
No desenvolvimento das soluções em IA é preciso prever ferramentas para rastreabilidade das decisões. Deve-se conseguir entender como o sistema chegou a determinadas conclusões. “Para os comitês de auditoria isso é vital. É preciso saber se essas decisões estão aderentes às regras de compliance”, diz Ana Paula.
Responsabilidade corporativa é outro princípio que deve ser considerado. Um dos pontos mais polêmicos envolvendo inteligência artificial é a destruição de empregos e substituição massiva de mão de obra. A palestrante explica que a tecnologia não foi desenvolvida para acabar com os empregos. O objetivo sempre foi aumentar a capacidade do ser humano e livrá-lo de tarefas operacionais e rotineiras. A tecnologia possibilitaria que as pessoas se dedicassem a atividades como definição de objetivos, julgamento de valor e análises filosóficas - tarefas que as máquinas não conseguem realizar com a mesma eficiência e qualidade que o ser humano. A combinação de pessoas e máquinas possibilitam melhores decisões, respostas com maior confiança e resultados com menos viés, conclui a presidente da IBM.