AI Hype
Temos sido bombardeados diariamente pelo tema de Inteligência Artificial (IA). Você pode dizer que é porque IA é muito mais do que uma nova tecnologia ou uma nova ferramenta e eu vou concordar com você. Ainda há muita polêmica sobre esta tecnologia. O executivo Mustafa Suleyman, CEO de IA na Microsoft, definiu IA como um novo tipo de espécie digital, pois é algo completamente novo, diferente de tudo que já vimos e, do ponto de vista estratégico, merece toda uma análise diferenciada e específica por parte da alta gestão das empresas, para que possamos entender onde estamos e o que ela representa. Mas o fato que quero abordar neste artigo é o que está batendo à nossa porta diariamente... uma avalanche de notícias sobre lançamentos de novos produtos, sobre casos de sucesso no uso de IA nas empresas e sobre cursos e dicas de como melhor utilizá-la. O fato incontestável é que a adoção de IA está crescendo de forma acelerada, seja pelos avanços que deixam a IA mais acessível, seja pela inclusão de IA em aplicações comerciais já em uso pelas empresas ou, simplesmente, pela contínua demanda dos negócios por maior produtividade e menores custos.
Há pouco tempo fizemos uma reflexão sobre o momento atual, se ele é realmente adequado às empresas para uma adoção relevante de IA e recomendamos a criação prévia de uma Estratégia Digital, para esclarecer como a IA poderia ser utilizada, quais os seus benefícios, riscos e a sua real prioridade para os negócios. E agora, por causa da recente aprovação do European Union AI Act – regulamentação da União Europeia (UE) sobre IA, resolvemos abordar novamente esse tema, abordando o impacto desta regulamentação nas empresas brasileiras e como elas precisam se planejar.
EU AI Act
A regulamentação da UE utilizou um modelo inovador de legislação baseada nos níveis de risco que os sistemas de IA geram, a fim de evitar sua rápida defasagem diante da grande velocidade com que se dá o desenvolvimento da IA (um conceito chamado future-proof legislation). Além disso, ela tratou temas importantes como os sistemas de IA de propósito geral (como aqueles baseados em Large Language Models – LLM, tais como ChatGPT e Gemini), a territorialidade (sujeitando à regulamentação as empresas de fora da UE que estiverem disponibilizando soluções naquele território ou atendendo aos seus cidadãos) e os direitos fundamentais dos cidadãos (quando decisões tomadas por IA afetam estes direitos).
Nesse modelo baseado em risco, foram definidos 4 níveis:
Risco Mínimo: para estas soluções, a regulamentação não apresenta restrições. Um exemplo desse tipo de solução de IA são os videogames.
Risco Limitado: para estas soluções, a regulamentação traz obrigações, basicamente, de transparência. Os sistemas de IA classificados com esse nível de risco devem informar os usuários de que o serviço é realizado por IA. É o caso dos Chatbots com IA.
Risco Alto: para estes casos, há uma ampla lista de obrigações, como documentação técnica, explicabilidade e práticas adequadas de governança e gerenciamento de dados. As soluções de IA que influenciam decisões significativas sobre a vida das pessoas, por exemplo, em serviços de Educação e Saúde, se enquadram neste nível de risco.
Risco Inaceitável: as soluções com este nível de risco são totalmente proibidas e serão banidas do mercado da UE. São soluções de IA para, por exemplo, realizar a identificação biométrica em espaços públicos.
Já em relação à responsabilização dos atores envolvidos na cadeia de valor de uma solução de IA, a regulamentação atinge, praticamente, todos os envolvidos:
Prestadores ou Desenvolvedores de soluções, sejam elas comercializadas ou disponibilizadas gratuitamente, para cidadãos ou empresas da UE;
Importadores, que disponibilizam uma solução estrangeira no mercado da UE;
Distribuidores, que disponibilizam soluções de IA no mercado da UE sem ser um Prestador ou Importador;
Implantadores, que utilizam as soluções de IA com fins profissionais;
Representantes autorizados, indicados pelos provedores como responsáveis pelas obrigações advindas da regulamentação; e
Fabricantes que utilizam a solução de IA embarcada em seus produtos, tais como dispositivos de IoT (Internet of Things).
Com relação à territorialidade, transcrevo o próprio texto presente na regulamentação, na sua versão em português: “Para evitar que o presente regulamento seja contornado e para assegurar uma proteção eficaz das pessoas singulares localizadas na União, o presente regulamento deverá ser igualmente aplicável a prestadores e a responsáveis pela implantação de sistemas de IA que estejam estabelecidos num país terceiro, na medida em que esteja prevista a utilização na União dos resultados produzidos por esses sistemas.”.
As empresas brasileiras
Com a regulamentação feita desta forma, as empresas que atuam ou pretendem atuar na cadeia de valor de soluções com IA, aquelas que comercializam produtos ou serviços para o mercado da UE, ou aquelas cujos produtos/serviços podem chegar ao mercado da UE, mesmo que indiretamente, estão sujeitas à nova regulamentação.
É crucial que estas empresas iniciem uma análise para classificar seus produtos/serviços de acordo com os níveis de risco definidos e determinar suas responsabilidades e as de seus parceiros na cadeia de valor. Para garantir o cumprimento da regulamentação e evitar sanções, recomenda-se buscar orientação especializada.
Para compreendermos um pouco mais os impactos que podem advir desse modelo de ampla responsabilização dentro da cadeia de valor, é importante refletirmos sobre as sanções já aplicadas pela UE com base na GDPR (a LGPD deles) e alguns outros casos controversos divulgados no mercado envolvendo IA.
A título de exemplo, a Meta foi multada na Noruega por fazer marketing comportamental (behavioural advertising), ou seja, por usar de forma não autorizada dados relativos ao comportamento dos usuários do facebook e instagram para mostrar-lhes anúncios. No contexto específico de IA, devemos nos lembrar que o The New York Times e várias outras empresas já processaram a OpenAI por violação de direitos autorais. Mais recentemente, o CEO do YouTube advertiu a OpenAI para não usar os vídeos que estão em sua plataforma para treinar a IA e, surpreendentemente, a diretora de tecnologia da OpenAI afirmou não ter certeza se sua IA foi treinada com vídeos do YouTube. A startup Stability.ai já assumiu ter usado bilhões de imagens para treinar sua IA sem consentimento dos proprietários dos direitos autorais.
Com estes exemplos em mente, reflita sobre o cenário da sua empresa, se fazendo perguntas tais como:
O e-commerce ou marketplace da minha empresa que utiliza um chatbot baseado em IA está tendo clientes na UE?
A área de marketing está gerando imagens através de IA?
Nossa central de atendimento utiliza sistemas de IA para automatizar o reconhecimento de emoções?
Nosso processo de recrutamento e seleção utiliza IA para classificação de candidatos?
Quem são os meus parceiros de IA e os prestadores das soluções que utilizo?
Quem é o responsável hoje na minha empresa por esses temas de IA?
O testemunho de um amigo sobre a adoção pela sua empresa de uma solução de IA, me faz trazer um último fator para reflexão: O rápido desenvolvimento do mercado de IA. A fala do meu amigo foi sobre o recente lançamento dos AI Agents do Google: “Conseguiríamos fazer agora, em poucos dias e de forma muito mais barata e melhor, o que levamos mais de 6 meses para aprender e construir”.
Com base neste cenário, retomamos nossa reflexão inicial: Como está o planejamento estratégico para a utilização de soluções de IA relevantes para o seu negócio?
Se o momento ideal para implementar soluções de IA for agora, em virtude do cenário da sua empresa e da sua indústria/setor, é importante que você seja diligente neste planejamento, questionando, por exemplo:
Quais soluções de IA estamos utilizando na empresa? Importante: certamente sua empresa está utilizando, ainda que você não saiba disso!
Qual a classificação de risco destas soluções?
Estamos com os processos adequados para garantir ética, transparência e evitar erros que comprometam nossa imagem?
Temos a Supervisão Humana necessária para evitar decisões autônomas que possam levar a abusos ou erros?
Temos uma adequada orientação jurídica e técnica em IA para ficarmos aderentes às regulamentações e à tecnologia de IA?
Como estamos endereçando os riscos mapeados e as melhores práticas já definidas?
Como está nossa Governança e nossa estrutura de responsabilização?
Temos um plano de respostas a incidentes de IA?
Quais os atores envolvidos na cadeia de valor?
Estamos provendo a documentação técnica necessária?
Temos o monitoramento e a auditoria necessários?
Conclusão
O uso da inteligência artificial (IA) é inevitável, em face do seu potencial inegável de transformar diversos setores e impulsionar os negócios. No entanto, a ascensão meteórica desta tecnologia exige cautela e responsabilidade por parte das empresas, para garantir que seja utilizada de forma ética e sustentável, maximizando seus benefícios e minimizando seus riscos.
Para as empresas brasileiras, é crucial ter uma visão holística do cenário da IA compreendendo seus pontos fortes e fracos. Esta visão tem origem numa estratégia digital que define o posicionamento da empresa em relação à IA. Ao tomar estas medidas e promover um diálogo aberto e estratégico com todos os stakeholders, as empresas estarão melhor preparadas para navegar pela era da Inteligência Artificial.
Comments