Transparência algorítmica: Chatbots com IA generativa para apoiar cidadãos da AOC

Visão geral
Problema que se pretende resolver até o final de 2023.
-
- Necessidade de assistência constante: Os usuários do AOC precisam de suporte contínuo, 24 horas por dia, 7 dias por semana, mas o suporte presencial ou por telefone não pode garantir essa disponibilidade total.
- Aumento de consultas e incidentes: O uso crescente de serviços digitais e do portal de transparência da AOC aumentou a demanda por informações e assistência, com mais de 91.000 solicitações por ano (dados de 2023) atendidas pela Central de Atendimento ao Usuário (CAU). Para gerenciar esse aumento de forma eficiente e manter o compromisso da CAU com os cidadãos, este é um bom momento para considerar a incorporação de novas ferramentas que ajudem a otimizar recursos.
- Divisão digital e dificuldades de pesquisa: Muitos utilizadores, afetados pela exclusão digital e social, muitas vezes têm dificuldade em saber o que procurar ou em interpretar corretamente os resultados dos motores de busca tradicionais. Isto pode causar confusão e frustração na sua experiência digital, necessitando de um suporte mais personalizado que permita fácil acesso a informações relevantes.
Solução adotada
-
- Desenvolvimento de Chatbot com IA Generativa: Para facilitar a autorresolução de dúvidas de forma acessível e imediata, foram criados assistentes de conversação baseados em IA. Esses chatbots permitem responder às dúvidas mais comuns dos usuários por meio de grandes quantidades de dados e algoritmos que interpretam a linguagem natural.
- Por que optar por chatbots de IA generativos? A AOC começou a experimentar chatbots há quase uma década, introduzindo-os gradualmente para melhorar o suporte ao usuário. Inicialmente foram implementados chatbots convencionais como Paula (21/01/2021), que deu suporte no processo de identificação com VÀLid; Rita (29/04/2021), que ajudou na obtenção, utilização e renovação do Certificado idCAT, e o chatbot do portal da transparência (19/4/2023), dedicado à resolução de dúvidas nesta área. Apesar da utilidade, esses chatbots operam com regras e fluxos estruturados de perguntas e respostas pré-definidas, o que exige treinamento manual intensivo, torna sua implementação complexa e cara, além de entregar respostas com relativo sucesso. (Veja a ficha de transparência Chatbots Convencionais da AOC)
Com esta experiência, a AOC aposta agora numa nova geração de chatbots baseados em dados e IA generativa, que necessitam de muito menos formação e podem fornecer respostas mais personalizadas e contextualizadas, melhorando assim a experiência do utilizador. Além disso, esta tecnologia permite refazer, ou seja, completar a pergunta inicial mantendo a consistência com a conversa anterior, enquanto nos chatbots convencionais cada pergunta é tratada como se fosse a primeira.
A quem se destina?
-
- Cidadãos que utilizam os serviços da AOC, para lhes oferecer apoio acessível, rápido e 24 horas por dia.
Casos de uso
Chatbots com IA generativa são aplicados nos seguintes serviços AOC:
-
- VÁLIDO: atende o cidadão nas dúvidas mais frequentes durante o processo de identificação na página VALid.
- idCat Móvel: auxilia na resolução de dúvidas sobre obtenção, utilização e renovação do Mobile idCat.
- Certificado IDCat: oferece suporte na obtenção, utilização e renovação do Certificado idCat.
- e-NOTUM: esclarece dúvidas e dá suporte na gestão de notificações eletrônicas.
- Ele representa: auxilia cidadãos e empresas a dirimir dúvidas sobre representações e procurações.
- e.FATO: fornece suporte na preparação e gerenciamento de faturas eletrônicas.
Nível de risco do sistema de IA (de acordo com os critérios do Regulamento Europeu da IA)
-
- Risco limitado. Não representa um risco significativo de danos à saúde, à segurança ou aos direitos fundamentais dos indivíduos, nem influencia substancialmente o resultado da tomada de decisões.
Status
-
- Implementado e em uso desde maio de 2024, com média de 11.575 usuários mensais.
Contrato de nível de serviço
-
- Disponível 24×7 com nível de disponibilidade de 99,8%.
Principais benefícios do serviço
Para os cidadãos:
-
- Acesso 24 horas por dia, 7 dias por semana à informação: Os cidadãos podem obter atendimento a qualquer momento, sem restrições de horário, facilitando a resolução de dúvidas quando necessitarem.
- Resposta imediata: Os chatbots oferecem respostas instantâneas, evitando os tempos de espera dos canais tradicionais, como suporte presencial ou telefônico.
- Auto-resolução de consultas: Os usuários podem resolver seus problemas de forma autônoma, reduzindo a dependência do suporte direto e melhorando a experiência.
- Experiência do usuário aprimorada: Os chatbots com IA generativa permitem uma interação mais natural e próxima, facilitando uma autêntica “conversa” com o utilizador. Estes chatbots podem adaptar-se à forma de expressão de cada pessoa, permitindo-lhe especificar ou refinar a sua questão com as suas próprias palavras.
Para administração:
-
- Otimização de recursos: os chatbots lidam com consultas repetitivas, liberando a equipe para tarefas mais complexas, o que melhora a eficiência de tempo e recursos.
- Redução de custosCada consulta resolvida pelo chatbot tem um custo muito menor do que o da atenção humana. Uma estimativa preliminar com dados de 2025 aponta para uma economia de cerca de 96% (custo médio aproximado de 15 € para consulta com a presença de funcionários da CAU vs. 0,60 € via chatbot).
Este valor é indicativo e será confirmado quando uma análise econômica mais detalhada for realizada. - Maior eficiência: os chatbots lidam com diversas consultas ao mesmo tempo, evitando gargalos e melhorando a capacidade de resposta.
- Menos esforço de treinamento: Os chatbots de IA generativos requerem menos configuração e treinamento inicial, começando com um modelo geral pré-treinado que se ajusta com ajustes mínimos. O processo de ajuste consiste em revisar e corrigir as respostas incorretas detectadas, ao invés de trabalhar exaustivamente na classificação e estruturação das respostas para cada intenção .
- Melhoria contínua dos serviços: A análise de conversas permite identificar padrões, melhorar áreas-chave e adaptar os serviços às necessidades dos usuários.
Informações de contato
Administração Aberta da Catalunha
Contate a equipe para dúvidas
Subdireção de Estratégia e Inovação
E-mail da equipe
innovacio@aoc.cat
UM MILHÃO DE BOT, SL
E-mail do fornecedor
info@1millionbot.com
Informações mais detalhadas sobre o serviço
Familiarize-se com os dados e informações utilizados pelo sistema, a lógica de funcionamento dos algoritmos e sua governança.
Conjuntos de dados
A base de conhecimento dos chatbots é baseada em três fontes principais:
-
- Perguntas frequentes (FAQ): Os chatbots são inicialmente treinados com um banco de dados de perguntas frequentes disponíveis no portal de suporte. Estas perguntas frequentes coletam as dúvidas mais comuns dos cidadãos e são atualizadas com as informações mais recentes sobre o serviço.
- Ingressos recorrentes: Os chatbots também aprendem com a análise de tickets de suporte históricos que contêm informações sobre perguntas, dúvidas e incidentes dos usuários e como eles foram resolvidos.
- Feedback contínuo: O sistema de chatbot apresenta uma forma de aprendizado constante onde cada tentativa generativa tem uma série de frases de treinamento nutridas por meio de conversas do usuário. Se uma pessoa fizer uma nova pergunta, o chatbot tentará procurar semelhanças em sua base de frases de treinamento existente. Caso o chatbot gere uma resposta incorreta para essa pergunta, durante o período de revisão da conversa, a frase será incluída dentro da tentativa correspondente e a IA gerará variações destas para ter uma base de conhecimento mais ampla.
Outros dados de entrada:
-
- Dados do usuário: Nenhum dado pessoal dos usuários é usado para treinar o modelo.
Considerações sobre o tratamento e conservação de dados
-
- O sistema de IA registra em um arquivo as perguntas feitas e as respostas fornecidas durante a sessão de chat. Também gera relatórios com dados de utilização, conversas e estatísticas online para análise e melhoria do atendimento.
- As conversas são mantidas por no máximo 3 meses, após os quais são excluídas automaticamente.
- Os relatórios de utilização, incluindo parâmetros como taxas de utilização e resposta, são mantidos indefinidamente para garantir rastreabilidade e avaliação contínua do serviço.
Processamento de dados
A lógica operacional do processamento automático de dados e o raciocínio realizado pelo sistema baseia-se no seguinte modelo e metodologia:
Processo de interação usuário-chatbot
O processo de interação usuário-chatbot ocorre por meio de uma interface digital acessível a partir de dispositivos como web, celular ou tablet. O usuário insere uma pergunta em formato de texto (“prompt”) que descreve a informação que deseja obter. O chatbot processa essas informações e gera uma resposta de texto para fornecer as informações solicitadas.
Arquitetura de serviço
O serviço utiliza um mecanismo de inteligência artificial generativa que processa a linguagem natural.
-
- O mecanismo de IA usado pelo chatbot AOC é GPT-4o, da empresa OpenAI.
- É usada uma instância do Azure OpenAI localizada na Europa.
- O motor funciona com base em um grande modelo de linguagem (Large Language Model, LLM), que é constituído por redes neurais profundas treinadas com enormes conjuntos de dados extraídos basicamente da Internet (páginas web, blogs, redes sociais, artigos científicos, livros, etc.)
O serviço foi adaptado por 1MillionBot, que foi responsável por:
-
- Projete as instruções que permitem que o modelo de IA oriente e siga as instruções.
- Preparar conjuntos de dados, coleta e limpeza de dados que servirão de referência para o sistema Retrieval Augmented Generation (RAG)
- Incorporação de conjuntos de dados no sistema RAG do 1MillionBot, que é capaz de melhorar a qualidade das respostas utilizando contextos específicos.
- Teste casos e valide a capacidade do sistema de lidar com erros e consultas complexas.
- Otimização do modelo com base nas interações do usuário.
Toda a infraestrutura do serviço está hospedada na nuvem do Plataforma Google Cloud (GCP), especificamente no data center do Google Cloud na Bélgica, dentro do Espaço Econômico Europeu (EEE). Esta localização garante a conformidade com os regulamentos europeus de privacidade e segurança.
O chatbot possui um sistema para coletar a opinião dos usuários e poder avaliar a satisfação da conversa geral.
Principais características da arquitetura:
-
- Alojamento seguro e certificado:
-
- As instalações GCP cumprem as normas de segurança ISO 27001 i SOC 2/3, garantindo uma infraestrutura robusta e confiável.
- Toda infraestrutura do provedor, 1 milhão de bots, incluindo webchat, plataforma Millie (frontend) e lógica e dados (backend), estão hospedados neste ambiente.
-
- Isolamento por casos de uso:
-
- Cada caso de uso do serviço é isolado em uma rede e ambiente de desenvolvimento específicos, evitando interferências entre aplicações e maximizando a segurança.
-
- Armazenamento protegido:
-
- As perguntas e respostas das conversas são armazenadas em bancos de dados hospedados nas máquinas virtuais do Google Cloud, que são protegidas por firewalls avançados e mecanismos de isolamento.
- O acesso a estes dados é feito exclusivamente através do backend, garantindo um controle rigoroso.
-
- Proteção contra ataques:
-
- O sistema incorpora diversas camadas de segurança, como:
-
- Solicitar limitadores para evitar sobrecargas.
- Validações rigorosas de dados e acesso.
- Firewalls especializados para proteger a infra-estrutura.
-
- O sistema incorpora diversas camadas de segurança, como:
-
- Alojamento seguro e certificado:
Esta arquitetura garante a robustez, segurança e adaptabilidade necessárias para oferecer um serviço de qualidade aos usuários.
Desempenho do algoritmo
Taxa de sucesso de 91,33%. Esta taxa é revisada mensalmente (última revisão: 15/04/2025)
Supervisão humana
O sistema algorítmico do chatbot atua diretamente, mas está sob vigilância ex post da equipe responsável pela decisão final, especialmente intensificada no período inicial de operação para compensar vieses do algoritmo e reduzir respostas erradas. As respostas do chatbot são fixas e não podem ser modificadas.
A supervisão humana dos chatbots garante a qualidade e precisão das respostas através de um processo rigoroso e regular:
-
- Avaliações semanais: Especialistas revisam registros de bate-papo para identificar respostas incorretas. Para cada erro detectado, a resposta ideal é anotada e as sentenças do usuário com resposta errada são reclassificadas, atribuindo-as à tentativa gerativa mais adequada.
- Análise mensal: São avaliadas 150 conversas selecionadas aleatoriamente, juntamente com aquelas já identificadas como errôneas, para detectar padrões de erros e corrigir respostas inadequadas.
- Gerenciamento de tentativas: Quando os erros não podem ser corrigidos simplesmente reclassificando as sentenças, os especialistas ajustam as instruções das tentativas existentes ou criam novas tentativas.
Este processo combina a metodologia tradicional dos chatbots com a flexibilidade da IA generativa, garantindo uma gestão ágil e um serviço confiável, alinhado com as necessidades dos utilizadores.
Conformidade regulatória do sistema
O sistema não processa dados pessoais. Mesmo assim, o sistema cumpre as normas vigentes em matéria de proteção e segurança de dados. Em particular:
-
- Aplicam-se os princípios do Regulamento Geral de Proteção de Dados (RGPD):
- Princípio da minimização de dados: apenas são recolhidos os dados necessários ao cumprimento da finalidade do sistema.
-
- Princípio da limitação da finalidade: os dados recolhidos são utilizados apenas para a finalidade comunicada ao interessado.
- Aplicam-se os princípios do Regulamento Geral de Proteção de Dados (RGPD):
-
- Do ponto de vista técnico, a solução cumpre os requisitos estabelecidos pelo Esquema Nacional de Segurança (ENS) para sistemas de nível BAIXO.
✨Aplicação voluntária de Regulamento de Inteligência Artificial da União Europeia (Regulamento de IA)
O sistema cumpre os requisitos do Regulamento AI exigidos no caso de sistemas de IA de risco limitado i modelos generativos de IA sem risco sistêmico. É por isso:
-
- Os usuários são informados de que estão interagindo com uma IA desde o início. Por este motivo, o serviço é apresentado como “assistente virtual AOC” e não com nome pessoal.

-
- Como IA generativa, Os chatbots AOC também atendem aos seguintes requisitos:
-
- É revelado que o conteúdo é gerado por IA.
- Um resumo dos dados de treinamento é publicado.
- As informações sobre o modelo de IA são fornecidas em linguagem clara e acessível.
Os dois últimos pontos são atendidos com esta folha de transparência algorítmica.
-
- Estes chatbots não estão sujeitos aos requisitos de IA generativa com risco sistémico. Isto significa que não há necessidade de passar em avaliações de modelos ou testes contraditórios, nem de apresentar relatórios sobre eficiência energética.
- Como IA generativa, Os chatbots AOC também atendem aos seguintes requisitos:
É um Ação Administrativa Automatizada (AAA)? Não.
Neste caso, o AOC não está sujeito à obrigação legal de publicar no seu site a AAA vinculada ao serviço, acompanhada de uma ficha técnica (Ver artigo 11, alínea i, do Real Decreto 203/2021, que aprova o Regulamento sobre o desempenho e funcionamento do setor público por meios eletrónicos, que implementa a Lei 40/2015 sobre o Regime Jurídico do Setor Público)
Gerenciamento de riscos
Conheça o riscos mais prováveis em relação ao princípios e direitos fundamentais que devem ser protegidos e as medidas aplicadas em cada caso para mitigá-los ou minimizá-los.
A. Igualdade e não discriminação
-
- Riscos identificados: vieses nos resultados, risco de exclusão e discriminação.
-
- O modelo LLM do motor GPT-4o, que forma a base dos chatbots AOC, é pré-treinado com grandes volumes de dados da Internet. Esses dados incluem uma grande variedade de informações e podem conter preconceitos relacionados ao gênero, origem étnica, idioma, entre outros. Como resultado, o sistema pode reproduzir padrões discriminativos presentes nos dados de treinamento. Além disso, a complexidade das redes neurais dificulta a identificação e prevenção desses vieses.
- Por outro lado, o catalão não é uma das principais línguas utilizadas na formação de modelos. Isto pode resultar em respostas com uso predominante de formas masculinas e menor diversidade linguística, afetando a inclusão e a riqueza das interações nessa língua.
-
- Medidas aplicadas
-
- Dados representativos de treinamento: Os dados utilizados para fazer o treinamento final e ajustar o chatbot foram cuidadosamente selecionados para incluir vários grupos populacionais e evitar preconceitos explícitos, a fim de garantir que as respostas sejam tão representativas e justas quanto possível.
- Igualdade no acesso linguístico: O serviço pode ser utilizado em catalão e espanhol, podendo escolher o idioma no início da conversa ou alterá-lo durante a utilização. Isso permite que todos os usuários interajam com o sistema no idioma de sua preferência.
-
- Atualmente, o chatbot pergunta ao usuário em qual idioma ele prefere ser atendido, pois isso melhora a precisão das respostas. Porém, testes estão sendo realizados para avaliar seu desempenho sem a necessidade de perguntar o idioma.
-
- Interpretação tolerante da linguagem: O sistema foi projetado para compreender a linguagem natural, mesmo que haja erros ortográficos ou linguísticos, garantindo que os usuários não sejam penalizados por pequenos erros em suas consultas.
- Inclusão e diversidade no design: Trabalhei em uma interface de chatbot que pode ser facilmente utilizada por qualquer pessoa, independente de seu nível de habilidade digital, para garantir que todos possam acessar o serviço sem barreiras tecnológicas.
-
- Riscos identificados: vieses nos resultados, risco de exclusão e discriminação.
B. Proteção de dados, privacidade e liberdade de escolha
-
- Riscos identificados: possível ameaça à privacidade, uso indevido de dados pessoais por terceiros e perda de liberdade de escolha.
-
- O serviço nunca solicita informações de identificação pessoal. No entanto, o serviço envolve um risco relacionado com o tratamento de dados pessoais caso o utilizador introduza dados pessoais desnecessários.
-
- Medidas aplicadas
-
- Para proteger dados e privacidade:
-
- O fornecedor (1MillionBot) assinou uma Ordem de Processamento com a localização dos dados dentro da União Europeia.
- O Responsável pelo Tratamento (AOC) garante os direitos ARCO (Acesso, Retificação, Cancelamento e Oposição) dos dados tratados.
- O consentimento e os cookies são gerenciados.
- Os registros de conversas são revisados regularmente por especialistas que removem quaisquer dados pessoais não detectados pelo sistema.
- Na próxima versão, será implementado um recurso que excluirá automaticamente qualquer CPF ou e-mail inserido no chat, e o usuário poderá solicitar que sua conversa seja retirada do sistema.
- O usuário é informado que a conversa será salva. Se você não concordar, não poderá continuar.
- O usuário pode excluir as conversas.
-
- Para garantir a liberdade de escolha:
-
- Oferecemos alternativas para ajudar os cidadãos sem o uso de algoritmos de IA, como suporte por telefone e e-mail. Se o usuário solicitar especificamente “contatar o suporte”, “falar com um agente”, “Quero mais suporte” ou algo semelhante, o bot redirecionará automaticamente para as páginas de contato do suporte AOC. Além disso, o chatbot está localizado dentro dos próprios portais de suporte AOC, onde você também pode acessar diretamente a opção “Entre em contato com o suporte” no rodapé.
-
- Para proteger dados e privacidade:
-
- Riscos identificados: possível ameaça à privacidade, uso indevido de dados pessoais por terceiros e perda de liberdade de escolha.

C. Segurança e robustez
-
- Riscos identificados: disseminação de informações incorretas, erros e inconsistências nas respostas, indisponibilidade de serviço e acesso não autorizado aos dados.
-
- Modelos baseados em redes neurais e cálculos probabilísticos dificultam a interpretação de como o resultado final é alcançado, o que limita o controle sobre as respostas geradas. Além disso, a natureza da IA generativa pode ocasionalmente fazer com que o sistema extraia informações para além da sua base de conhecimento específica, incluindo fontes ou dados externos não verificados, o que pode resultar em respostas fora de contexto ou sobre tópicos que não pertencem à sua área. .
- Para mitigar esses riscos, o motor de IA deve ser instalado em um ambiente controlado e protegido, com configuração e segurança rigorosas para garantir a proteção e integridade do serviço.
-
- Medidas aplicadas
-
- O sistema foi instalado num ambiente fechado e seguro, baseado numa arquitetura certificada (ver as principais características da arquitetura). Esta configuração garante:
- Robustez e confiabilidade, garantindo o correto funcionamento do sistema.
- Segurança e confidencialidade dos dados gerenciados.
-
- Adaptabilidade, para oferecer respostas de qualidade e alinhadas com as necessidades dos utilizadores.
- Análise de risco de segurança: o AOC realizou uma avaliação de segurança seguindo as diretrizes da Agência Catalã de Segurança Cibernética e do Esquema Nacional de Segurança (ENS). O sistema foi classificado com nível de segurança BAIXO e, de acordo com essa categorização, medidas específicas foram implementadas para mitigar os riscos identificados. Especificamente, para garantir a disponibilidade e correto funcionamento do sistema:
- Foram estabelecidos Acordos de Nível de Serviço (SLAs) com o fornecedor, que devem ser cumpridos e revisados periodicamente, para garantir a capacidade, disponibilidade e gestão de incidentes do sistema.
-
- Quinzenalmente são realizados relatórios de conformidade da ANS para garantir que o serviço mantenha os padrões acordados.
- O sistema foi instalado num ambiente fechado e seguro, baseado numa arquitetura certificada (ver as principais características da arquitetura). Esta configuração garante:
-
- Para garantir o direito a um informações verdadeiras e adequadas: são aplicados protocolos para revisão do sistema, minimizando erros e inconsistências e melhorando a qualidade das respostas. Adicionalmente, para garantir respostas dentro do âmbito de competência do chatbot:
-
- Foram implementados filtros de palavras-chave e tópicos (por exemplo, certificado de matrícula, pagamento de multa, pré-matrícula escolar, etc.). Esses filtros geram “tentativas fora do catálogo”, com as quais o chatbot informa que não possui informações sobre o assunto e recomenda entrar em contato com a administração competente.
- O modelo é treinado exclusivamente em dados do domínio AOC, garantindo ao máximo que as informações sejam relevantes e adequadas à finalidade.
-
- Para garantir o direito a um informações verdadeiras e adequadas: são aplicados protocolos para revisão do sistema, minimizando erros e inconsistências e melhorando a qualidade das respostas. Adicionalmente, para garantir respostas dentro do âmbito de competência do chatbot:
-
- Riscos identificados: disseminação de informações incorretas, erros e inconsistências nas respostas, indisponibilidade de serviço e acesso não autorizado aos dados.
D. Transparência e explicabilidade
-
- Riscos identificados: desconfiança, má interpretação dos resultados por parte dos utilizadores (incapacidade de compreender o resultado), confusão em pensar que se trata de uma interação com um humano, dificuldades em apresentar reclamações ou questionamentos sobre os resultados obtidos
- Medidas aplicadas
-
- Identificação clara como IA: Desde o início, o serviço é apresentado como um “assistente virtual” para evitar confusões sobre a natureza da interação.
-
- Consentimento do usuário: Os usuários são informados de que a conversa será salva, para que eles possam decidir se querem continuar.
- Folha de transparência algorítmica: É publicado no site da AOC, com informações sobre:
-
- Problema a ser resolvido
- Com o sistema de IA implementado
- Público-alvo
- Dados usados para treinar o sistema de IA
- Identidade e detalhes de contato do fornecedor
- Órgão responsável e endereço de contacto para reclamações, dúvidas e sugestões
-
- Fácil acesso à planilha: A ficha de transparência pode ser consultada na página inicial do serviço.
-
E. Conservação de contas e auditabilidade
-
- Riscos identificados: Limitações na rastreabilidade dos resultados, falta de verificação e revisão periódica, dificuldades na interpretação do modelo mesmo por especialistas, ausência de responsabilidade atribuída.
-
- Os riscos associados à responsabilização e auditabilidade dos chatbots generativos de IA podem comprometer a fiabilidade do sistema se não houver meios de rastrear com precisão o processo de geração de respostas, verificar regularmente a qualidade e garantir que a operação é compreensível mesmo por especialistas. Esses fatores dificultam a supervisão adequada do serviço e dificultam a atribuição de responsabilidades por erros ou decisões injustas, que podem afetar a confiança no serviço público.
-
- Medidas aplicadas
-
- Para garantir a responsabilização do sistema de IA e seus resultados:
-
- Monitoramento de qualidade e impacto: São feitos relatórios quinzenais com indicadores de qualidade e impacto para avaliar se o serviço atende aos objetivos estabelecidos.
-
- Para garantir a responsabilidade pelo sistema e seus resultados:
- É informado quem é o responsável pelo serviço (AOC) e o procedimento a seguir para apresentar uma reclamação em caso de impactos adversos.
- Para garantir a auditabilidade:
-
- O AOC reserva-se o direito de realizar auditorias adicionais para analisar indicadores de qualidade e Acordos de Nível de Serviço (SLAs) a qualquer momento, garantindo assim o monitoramento contínuo da confiabilidade do sistema.
-
- Para garantir a responsabilização do sistema de IA e seus resultados:
-
- Riscos identificados: Limitações na rastreabilidade dos resultados, falta de verificação e revisão periódica, dificuldades na interpretação do modelo mesmo por especialistas, ausência de responsabilidade atribuída.
F. Desenvolvimento sustentável e solidariedade
-
- Riscos identificados: impacto ambiental negativo, desigualdades no acesso a esta tecnologia devido ao seu alto custo.
-
- O uso de chatbots com IA generativa impõe desafios significativos em termos de sustentabilidade e equidade. Por um lado, seu impacto ambiental é alto, pois requer grandes recursos computacionais para processamento e armazenamento de dados, o que implica alto consumo de energia e emissões de CO₂. Por outro lado, seu custo de implementação e manutenção é significativo, o que pode limitar o acesso a essa tecnologia para organizações com mais recursos.
-
- Medidas aplicadas
-
- Ajuste e otimização do treinamento de chatbot para alcançar a máxima eficiência. Estudos indicam que uma consulta ChatGPT pode equivaler a dez pesquisas no Google; portanto, se confirmado, o elevado custo energético da IA generativa poderá ser compensado pela sua maior eficácia em comparação com métodos mais baratos.
- Promover a transparência sobre os custos de utilização contribuir para uma utilização mais responsável desta tecnologia.
-
- Promover a transferibilidade:A AOC está trabalhando para oferecer o chatbot como um serviço "chave na mão" às administrações locais catalãs, facilitando o acesso a essa tecnologia de forma equitativa. Essa estratégia de replicabilidade permitirá a adoção de IA generativa avançada sem exigir grandes investimentos.
-
- Riscos identificados: impacto ambiental negativo, desigualdades no acesso a esta tecnologia devido ao seu alto custo.
Mais Informações
-
- Arquivo do Registro de IA e outros algoritmos da Generalitat: chatbots da AOC
- Ficha de inovação da AOC: Chatbots com IA generativa da AOC: atenção imediata, eficiente e acessível
- Artigo "IA generativa e ChatGPT. Impacto na aprendizagem universitária". Por Climent Nadeu Camprubí. Departamento de Teoria de Sinais e Comunicações (TSC). Centros de Pesquisa TALP e IDEAI. Universidade Politécnica da Catalunha (UPC).
Un intenção refere-se à intenção ou propósito que o usuário tem ao fazer uma pergunta ou fazer uma consulta ao chatbot. As tentativas ajudam a identificar o que a pessoa deseja alcançar, como obter informações específicas, resolver um problema ou concluir um procedimento. Nos chatbots tradicionais, as tentativas devem ser pré-definidas e treinadas manualmente para que o chatbot possa reconhecê-las e fornecer a resposta adequada. Em contraste, os chatbots com IA generativa podem identificar e interpretar tentativas com mais flexibilidade, gerando respostas em tempo real a partir do contexto da conversa, sem a necessidade de uma classificação exaustiva das tentativas antecipadamente. Isso torna a interação mais natural e adaptada às necessidades do usuário.
Algumas das principais capacidades do mecanismo de inteligência artificial generativa estão:
-
- Identifique e corrija erros tipográficos e ortográficos para melhorar a comunicação.
- Detecta a intenção da mensagem, mesmo com frases ambíguas ou múltiplos significados.
- Mantém a memória de curto prazo para conectar perguntas e garantir respostas consistentes.
- Avalia possíveis respostas, escolhe a melhor e oferece sugestões para conversas mais claras.
- Adapta-se a vários idiomas (catalão, espanhol, inglês), reconhece gírias e emojis.
El Regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial e altera determinados atos legislativos da União (também conhecida como Lei RIA ou Lei de IA) entrou em vigor em 2 de agosto de 2024 e será aplicada a partir de 2 de agosto de 2026.