Momentos económicos… e não só

About economics in general, health economics most of the time

IA no INEM e as dificuldades na inovação

1 Comentário

Nas últimas duas semanas ganhou destaque o “choque” entre uma empresa tecnológica na área da saúde, a “Swordhealth”, e o INEM, a propósito da possibilidade da primeira instalar um sistema de atendimento baseado num modelo de inteligência artificial desenvolvido pela empresa (que é conhecida por outro tipo de instrumentos, não tendo na sua carteira o desenvolvimento de modelos de linguagem para atendimento telefónico em situações de emergência).

A ideia de juntar novos modelos de inteligência artificial com atendimento telefónico em situações de emergência, para acelerar o processamento dos casos mais simples, é atrativa, e explorá-la é um passo natural no aproveitamento dos mais recentes desenvolvimentos tecnológicos. Esta primeira tentativa resultou, porém, em acusações mútuas das partes que deveriam levar a cabo e em conjunto o desenvolvimento da experiência.

A primeira reação pública veio de um dos fundadores (e CEO) da SwordHealth, com declarações à comunicação sociale colocação de um texto em redes sociais: “O que encontrámos é assustador”: a empresa SwordHealth ofereceu IA ao INEM, mas percebeu que era “impossível implementar a solução”. 

O representante da SwordHealth queixou-se da falta de cooperação e da falta de acesso à informação necessária para “treino” do modelo. Foi duro na apreciação “é impossível conseguir alguma coisa com a camada intermédia de técnicos que estão na mesma posição há 10/20 anos sem conhecimentos básicos. Adicionalmente, há uma aversão à mudança patológica. (…) dependemos de técnicos do Estado sem conhecimento ou de empresas que parasitam o sistema”. A SwordHealth disponibilizou um exemplo do seu modelo de utilização de inteligência artificial que pode ser ainda ser ouvido (aqui, verificado a 16/02/2025).

A resposta do INEM foi no sentido de considerar que a reação da SwordHealth foi alarmista, e da implementação desse tipo de modelos ser impossível, e em declarações realizadas, responsáveis do INEM expressaram os seus medos: “O INEM não precisa de um sistema de substituição incapaz de lidar com as subtilezas do discurso e análise humanos” e aponta-se como solução recrutar mais pessoas.

Embora os primeiros alertas viessem da preocupação com o uso da informação, esse não parece ter sido o verdadeiro problema, pois haverá certamente o quadro legal e instrumentos necessários para resolver satisfatoriamente essas preocupações.

A nível internacional, a utilização de inteligência artificial neste contexto de atendimento telefónico e triagem encontra-se em crescimento, e existe uma primeira revisão das experiências que têm sido documentadas (aqui). As preocupações com a segurança da informação (privacidade) e com a confiança nessa segurança não são específicas de Portugal, e têm de estar cabalmente resolvidas em qualquer solução de triagem usando modelos de inteligência artificial. Os eventuais problemas de privacidade de informação têm soluções conhecidas e não serão o obstáculo ao seu uso neste contexto.

A utilização de ferramentas de inteligência artificial tem de possuir grande transparência para gerar confiança da população (que não se limita à questão da privacidade dos dados recolhidos).

Os desafios de implementação em termos de confiança, confidencialidade e formação de pessoal, bem como a falta de equipamento, não são apenas em Portugal que surgem. 

Este episódio do INEM, na parte que já é publicamente conhecida, revela o choque (inevitável?) entre a velocidade da inovação e a inércia do que existe, e da necessidade de compromisso para que soluções inovadoras possam ser tentadas.

Sem ter a veleidade de fazer um julgamento sobre quem está certo e quem está errado neste “conflito”, pelo menos por agora e com o que se sabe, há alguns pontos que são relevantes considerar:

Ao tornar automáticos os processos mais simples, reduz-se a pressão sobre os trabalhadores e permite uma maior rapidez na mobilização dos recursos necessários à situação de emergência comunicada. Há, por isso, vantagens em procurar soluções que tenham esse automatismo. 

Para estar na fronteira das soluções tecnológicas não é possível estar apenas dependente das soluções geradas no sector público. A capacidade de experimentar novas ideias é maior com a liberdade do sector privado. O sector público, por seu lado, precisa de ter sempre presente a importância de escrutínio sobre o uso de dinheiros públicos. E tende a “jogar pelo seguro”. É certo que estabelecer relações e parcerias com entidades privadas não pode deixar o sector público dependente (refém) da entidade privada. Esta dificuldade do sector público não é específica de Portugal. Só por curiosidade, nos Estados Unidos, país de referência para a SwordHealth, há sistemas importantes do Governo que ainda usam COBOL (ver aqui).

O principal risco do uso da inteligência artificial está na chamada “alucinação”: o modelo levar a respostas incorretas que uma decisão humana não faria, ou faria em menor grau.

Para que o uso da inteligência artificial possa ser útil em todas as suas potencialidades é necessário que haja uma cultura organizacional que se ajuste a essa utilização, nomeadamente através de treino e conhecimento das capacidades da inteligência artificial. Ou seja, o INEM também tem de se preparar internamente, levando a que os seus trabalhadores olhem para a utilização de investigação artificial como forma de aumentar a sua capacidade de resolver problemas, e não como substituição de pessoas. Provavelmente, a reação de receio de substituição por parte das pessoas que trabalham no INEM não foi tida em conta.

Por outro lado, o exemplo de funcionamento do modelo de inteligência artificial, sendo atrativo, deixa de fora o que serão os aspectos mais interessantes: em que momento e como é que o modelo decide que deve passar a um decisor humano a continuação do atendimento do caso? Quantas situações de “falsas emergências” consegue detetar e resolver? Quantas situações que “verdadeiras emergências” não são resolvidas por serem tratadas como casos menores? (ou seja, que tipos de erros surgem).

Além disso, estará o modelo da SwordHealth preparado para ultrapassar os obstáculos à triagem de crianças e grupos vulneráveis (deficientes, etc.) em situação de emergência? Aqui, o momento de passagem do atendimento automático para operador humano será provavelmente crucial, e os testes com dados reais serão cruciais para perceber como é feito.

 Por outro lado, o uso de instrumentos de inteligência artificial também tem potencial para ajudar a ultrapassar barreiras linguísticas no acesso a cuidados de saúde, pelo que pode vir a facilitar o uso de mecanismos de triagem por parte de populações imigrantes, com dificuldades de comunicação em português.

Reduzir a questão à boa ou má vontade de qualquer uma das partes (INEM ou SwordHeatlh) é redutor, e atrasará o uso de soluções tecnológicas que ajudem a melhorar o serviço prestado pelo INEM à população, que é o verdeiro critério de avaliação.

Aprendeu-se com esta situação que não basta ter excelência tecnológica para que uma solução nova seja adoptada no sector público. É necessário garantir que há abertura da organização, em termos da sua cultura, para acolher e ajustar as inovações, em lugar de as rejeitar como mecanismo de defesa, até com o argumento da incerteza quanto aos resultados e situações inesperadas que possam surgir face à certeza “do que existe”. É um esforço mútuo. 

Como avançar a partir daqui? (neste caso e numa perspectiva mais geral)

Em primeiro lugar, é essencial ter um quadro de governação para a inteligência artificial na saúde. Deve-se estabelecer normas reguladoras claras para o seu uso no setor da saúde e nos serviços de emergência, para este situação em particular, definindo princípios de transparência, responsabilidade e segurança de dados que assegurem a confiança do público.

Poderá ser útil a criação de uma unidade de colaboração público-privada para a inteligência artificial. Um grupo dedicado dentro do Ministério da Saúde permitiria facilitar o diálogo entre empresas tecnológicas e instituições públicas, levando à criação de protocolos estruturados para o uso de dados, respeitando os requisitos de privacidade e segurança, para fins de implementação de novas soluções. O envolvimento das entidades envolvidos diretamente no uso facilitaria o desbloquear de resistências culturais e técnicas à adopção de novas ferramentas (que podem implicar investimentos em infraestruturas e treino de profissionais).

Terceiro, o uso de experiências controladas para a triagem assistida por inteligência artificial será uma solução prudente. Dado que existem chamadas para os serviços de emergência que não são verdadeiramente urgentes, os primeiros testes devem focar-se nesses casos, permitindo uma avaliação realista do desempenho do sistema antes de uma implementação mais ampla (por exemplo, para o 112, foi há pouco tempo relatado que mais de metade das chamadas para o 112 são falsas ou não reportam emergências). É fundamental envolver auditorias externas que monitorizem métricas essenciais, como erros de classificação e capacidade de encaminhamento para um profissional humano quando necessário.

Quarto ponto, é indispensável formar os profissionais do setor público para trabalhar com inteligência artificial, para que esta utilização seja vista como uma ferramenta de apoio e não como um substituto das suas funções. A inteligência artificial auxilia mas a supervisão humana é mantida.Embora a discussão acima esteja centrada na relação entre quem traz inovação e quem tem de a usar, não se deve descurar a confiança das pessoas no sistema de apoio de emergência. Deixo por isso uma questão para quem chegou até aqui: o que pensa sobre a utilização de inteligência artificial no atendimento de emergência, como auxiliar da intervenção, e sob supervisão, humana?

(imagem gerada por inteligência artificial)

Desconhecida's avatar

Autor: Pedro Pita Barros, professor na Nova SBE

Professor de Economia da Universidade Nova de Lisboa.

One thought on “IA no INEM e as dificuldades na inovação

  1. Desconhecida's avatar

    A minha experiencia com atendimento telefónico por bots é negativa. Suponho que se estivesse em situação de emergência ficaria completamente perdida sem saber o que fazer. Continuo a preferir uma pessoa no atendimento telefónico.

    Gostar

Deixe um momento económico para discussão...