read_more
Campus Virtual Fiocruz

Introdução à Saúde Digital

Módulo 1 | Aula 4
Introdução à inteligência artificial na saúde

Tópico 5

Aspectos éticos, de regulação e de segurança da informação associados à utilização da IA na saúde

Uma das principais palavras associada à Inteligência Artificial é a transparência, ou a falta dela. E, como já mencionamos aqui, a amplitude deste conceito dificulta uma análise adequada do que deve ser exigido, por quem e quando.

Certamente, algumas aplicações de IA de menor risco não terão elevados requisitos de transparência. Entretanto, aplicações de maior risco necessitam de um tratamento especial, pois a transparência é fundamental para verificar se os princípios éticos esperados estão sendo respeitados, assim como as determinações legais.

É importante notar que a transparência pode abranger elementos além da tecnologia em si. Por exemplo, é essencial comunicar aos envolvidos que certas decisões foram tomadas com base em tratamento automatizado de dados pessoais. Neste contexto, talvez um primeiro passo para obter alguma transparência seja tomar ciência de onde a IA está sendo usada no SUS, com que objetivo e quem são as pessoas afetadas. Isso permitiria o compartilhamento das melhores práticas, além da discussão em casos concretos sobre as salvaguardas que devem ser exigidas em cada situação.

Um outro ponto de atenção, que já refletimos aqui, é que para o uso de IA existe a necessidade de reunir grandes volumes de dados para o treino de modelos, o que traz claras preocupações com a garantia da privacidade. Por isso, alguns pontos adicionais devem fazer parte de qualquer novo projeto nesse contexto. Onde serão armazenados os dados? Há como garantir a segurança dos dados e a privacidade dos usuários? Há transparência suficiente sobre os usos desses dados?

As duas primeiras perguntas têm relação com estruturas e processos importantes para a privacidade. Enquanto a última remete à discussão sobre a transparência das aplicações, pois mesmo que não haja vazamento algum nos dados, isso não assegura que o uso seja adequado.

Para tentar mitigar essa e outras questões, recentemente tem havido uma grande pressão para regulamentar o uso da IA na sociedade. Essa pressão aumentou quando se percebeu o alcance limitado das iniciativas de adesão voluntária das empresas a diversas listas de princípios éticos.

No entanto, criar uma regulamentação adequada para a IA é uma tarefa complexa por vários motivos, incluindo o risco de que as normas se tornem rapidamente obsoletas, devido ao desenvolvimento do campo.

Esse esforço regulatório objetiva proteger a privacidade, a titularidade dos dados, a responsabilização e garantir transparência nas decisões algorítmicas. Além disso, busca não se tornar uma barreira para o desenvolvimento de uma tecnologia com potencial para trazer enormes ganhos a toda a sociedade.

Obviamente, este é um equilíbrio complexo. Ainda mais quando a necessidade de transparência no uso e tratamento de dados depara-se, dentre outras, com questões como a proteção de propriedade intelectual, com as limitações técnicas para assegurar interpretabilidade e as questões éticas envolvidas, com consequências que podem levar a um tratamento discriminatório contra pessoas e grupos.

Estes são apenas alguns dos aspectos envolvidos em projetos de IA e muitos outros podem ser derivados deles. Além disso, é razoável supor que ainda há questões que não foram identificadas ou que surgirão no futuro, com as novas tecnologias e campos de aplicação.