Usando a Inteligência Artificial (IA) de Maneira Humanizada

 

 

Embora a Inteligência Artificial (IA) possa parecer um conceito futurista ou distante para alguns, ela já está ao alcance. Neste contexto, a inteligência artificial ganha um protagonismo impressionante. A inteligência artificial tem o potencial de transformar a sociedade de inúmeras maneiras. No entanto, para proteger as pessoas dos riscos do mau uso da IA, é importante que ela seja usada de maneira humanizada, ou seja, é importante garantir que seu desenvolvimento e uso estejam alinhados com os valores humanos e os direitos fundamentais. Isso inclui os direitos humanos, os direitos individuais e outros direitos, bem como a necessidade de regulamentação para mitigar os riscos potenciais desta tecnologia.

A IA pode trazer muitos benefícios, como aumentar a eficiência, reduzir erros humanos, automatizar tarefas repetitivas e de baixo valor agregado, e fornecer insights valiosos por meio da análise de dados, bem como realizar diagnósticos mais precisos, tratamentos, prevenção de doenças e gerenciamento de informações médicas, na área da saúde. Isso pode levar a uma tomada de decisão mais rápida e precisa, além de reduzir custos operacionais e aumentar a produtividade. Esses são apenas alguns exemplos dos muitos benefícios que a IA pode oferecer.

No entanto, o mau uso da IA pode ter consequências graves, como violações de privacidade, discriminação, manipulação social e política, e enviesamento.  Um dos principais riscos da IA é que ela pode ser usada para discriminar ou prejudicar grupos de pessoas, podendo ser usada para desenvolver sistemas de reconhecimento facial que são mais propensos a identificar pessoas de determinadas raças ou etnias. Isso pode levar a situações em que essas pessoas são injustamente alvos de discriminação ou policiamento. Outro risco da IA é que ela pode ser usada para manipular ou controlar as pessoas, desenvolvendo campanhas de desinformação ou propaganda que são projetadas para influenciar a opinião pública. Isso pode levar a situações em que as pessoas são levadas a tomar decisões que não são do seu melhor interesse.

Tanto a Organização das Nações Unidas (ONU) quanto a Organização Mundial da Saúde (OMS) têm princípios e diretrizes para garantir que a IA seja usada de maneira ética e responsável, respeitando os direitos humanos e promovendo o bem-estar das pessoas.

A OMS publicou um relatório sobre ética e governança na utilização da IA na saúde. O relatório destaca a importância de colocar a ética e os direitos humanos no centro da implantação e uso da IA. A OMS também criou um guia com seis princípios fundamentais para o uso ético da IA na saúde. Esses princípios incluem:

  1. Proteger a autonomia humana.
  2. Promover o bem-estar, segurança humana e interesse público.
  3. Garantir transparência, explicabilidade e inteligibilidade.
  4. Promover responsabilidade e prestação de contas.
  5. Garantir inclusão e equidade.
  6. Promover uma IA que seja responsiva e sustentável.

A ONU também tem iniciativas relacionadas ao uso ético da IA. Por exemplo, a Assembleia Geral da ONU adotou uma resolução sobre o impacto da rápida evolução das tecnologias digitais, incluindo a IA. A resolução enfatiza a importância de garantir que o desenvolvimento e uso dessas tecnologias estejam alinhados com os valores humanos e os direitos fundamentais.

Diante disto, a IA deve ser usada de forma a promover a justiça e a equidade. Isso significa que a IA deve ser usada de forma a beneficiar todos os membros da sociedade, independentemente de sua raça, etnia, gênero ou outras características.

Referências:

CEPELLOS, V. HR Techs e suas implicações. GV-executivo. 2021. << https://doi.org/10.12660/gvexec.v18n5.2019.80378>> Acesso em 25 de agosto de 2023.

ORGANIZAÇÃO DAS NAÇÕES UNIDAS (ONU). Princípios para uma IA responsável. 2023.

ORGANIZAÇÃO MUNDIAL DA SAÚDE (OMS). Primeiro Relatório Global Sobre inteligência Artificial. 2021. <<https://www.paho.org/pt/noticias/28-6-2021-oms-publica-primeiro-relatorio-global-sobre-inteligencia-artificial-na-saude->> Acesso em 25 de agosto de 2023.