Como construir uma Inteligência Artificial ética? E quais princípios precisam de respeito nesse sentido?
A Inteligência Artificial (IA) é decerto uma das grandes responsáveis pela transformação digital, não é mesmo?
Seus projetos são inovadores e mudam a forma como vivemos, a fim de gerar sempre novos fatos reais.
Por outro lado, projetos como esse também trazem discussões éticas importantes. A capacidade da IA pode assustar, já que estamos falando de sistemas mais ou menos de autônomos.
Por isso, os princípios éticos são muito relevantes para a IA. Aliás, uma IA só é vista como confiável se ela seguir esses princípios.
Então, assim como em outras áreas de TI, a Ética está no centro da discussão sobre IA, e é preciso considerá-la.
A definição de Ética
Em primeiro lugar, antes de saber como construir um sistema de IA que seja ético, é preciso entender o que significa, pra ser exato, a palavra Ética.
Ética pode ser definida como uma filosofia moral, uma disciplina ligada no que é certo e errado, bom ou mau.
Além disso, essa definição mais genérica, podemos consultar o dicionário para saber melhor o seu significado. Segundo o dicionário de Oxford, ética “são os princípios morais que governam o comportamento de uma pessoa ou a condução de uma atividade”.
Qual o papel da Ética na IA?
Como dito antes, uma IA só se torna confiável se ela respeitar os padrões éticos exigidos.
A ética na IA atua como um subcampo entre a ética e a tecnologia; ela se concentra em questões éticas relacionadas ao design, desenvolvimento, inserção e uso da IA.
O seu foco é identificar como a IA promove ou levanta anseios sobre a vida das pessoas; isso pode ser em termos de qualidade de vida, autonomia mental ou sobre a democracia da região onde vivem.
Então, a ética na IA pensa nas questões de diversidade e inclusão. Ela também foca no uso dos dados de treinamento e também nos fins que a IA busca servir. Além disso, os dispostos pelo uso da IA também são tidos pela ética na IA.
O propósito ético no campo da IA visa respeitar os direitos, princípios e valores vitais.
É preciso ter em mente que um código de ética nunca pode funcionar como substituto para um raciocínio ético em si. Em outras palavras, os projetos de IA devem estar atentos aos detalhes contextuais e de inserção que não são capturados por diretrizes éticas.
Os 23 Princípios Asilomar
A IA possui duas “normas” éticas bastante conhecidas. A primeira delas é o que chamamos de Princípios Asilomar.
Desenvolvidos em 2017, os Princípios Asilomar de IA são uma criação do Instituto Future of Life, dos EUA. Eles são um conjunto de 23 diretrizes que todos os envolvidos com IA devem respeitar para garantir o uso seguro, ético e benéfico da IA.
Esses 23 princípios envolvem o campo da Pesquisa, Ética, Valores e questões a longo prazo ligadas à IA. Os princípios se dividem da seguinte forma:
- Pesquisa – Metas, Financiamento, Políticas, Culturas e Velocidade do progresso;
- Éticas e Valores – Segurança; Transparência de falha; Transparência jurídica; Responsabilidade; Alinhamento de valores; Valores humanos; Privacidade pessoal; Privacidade e Liberdade; Benefício compartilhado; Prosperidade compartilhada; Controle humano; Não subversão e Corrida armamentista de IA;
- Questões à Longo Prazo – Precaução de capacidade, Importância, Riscos, Auto aperfeiçoamento recursivo e Bem comum.
Isso significa que para construir uma IA sólida, ética e confiável, esses aspectos precisam ser considerados.
Diretrizes de Ética para Inteligência Artificial confiável
A União Europeia também trabalha sempre para construir diretrizes éticas. Essas diretrizes, se encontram com direção aos estados-membro da UE, também são um bom norte para construir uma IA Ética.
A norma conta com uma lista de requisitos. Para resumir:
- A IA deve respeitar os direitos vitais, a regulamentação aplicável e os princípios e valores fundamentais. Além disso, ela deve ser ética através da observância de princípios e valores éticos, garantindo assim um “propósito ético”;
- Mesmo com boas intenções, a falta de domínio tecnológico pode causar danos não intencionais. Por isso, tecnicamente deve haver solidez e confiança no modelo de IA.
Os requisitos ainda dizem que uma IA precisa capacitar os seres humanos, permitindo que eles tomem decisões informadas, promovendo seus direitos fundamentais.
Além disso, é preciso que haja o respeito pela privacidade e proteção de dados, e os projetos de IA precisam ser transparentes.
Outras questões envolvem o bem-estar social e ambiental, além do empenho pelos sistemas de IA e seus resultados.
Mesmo sendo um requisito europeu, antes de tudo, essas normas são uma garantia de que seu projeto não vai desrespeitar nenhum princípio ético.
O ser humano no centro de tudo!
Enfim, com esses requisitos, fica claro que uma IA só é ética se ela for benéfica ao ser humano. Isso significa que, por mais que a IA promova novas tecnologias, ela precisa ser um complemento para humanos.
Acima de tudo, lembre-se que a previsão para humanos e máquinas de IA é justamente o trabalho em parceria, na busca por promover um mundo melhor.
Sendo assim, para que uma Inteligência Artificial seja ética, é preciso que o ser humano esteja no centro de tudo.
Em conclusão, se você gostou do nosso conteúdo, deixe aqui o seu ponto de vista.
Se acaso ficou alguma questão, não hesite e comente a sua opinião.
Que logo após, nós, da PMG Academy, vamos te responder o mais breve. Até mais!
Artigos Relacionados