Porquê regular a inteligência? Foi a pergunta que Gabriele Mazzini tentou responder no palco principal do Data Makers Fest. Apesar da dificuldade de legislar algo tão complexo e intangível, a razão para o fazer é simples: “só se cria uma regulação deste género quando se percebe que podem estar em risco valores fundamentais”.
Há cinco anos, a União Europeia anteviu que a Inteligência Artificial (IA) podia constituir um perigo à dignidade e aos direitos do cidadão europeu comum. No início de agosto, a primeira lei da inteligência artificial começou a ser aplicada, entre preocupações que entretanto se tornaram lugares comuns.
Desde a introdução do Chat GPT, em 2021, a Inteligência Artificial impregnou o dia-a-dia das pessoas. Do mesmo modo que eliminar elementos de uma fotografia em cinco minutos com a ajuda de IA generativa pode ser muito prático e útil, crescem as preocupações sobre como os ‘deep fakes’ são verosímeis fontes de desinformação.
O automatismo dos sistemas de Inteligência Artificial faz com que haja uma grande quantidade de processos que escapa ao cidadão comum. Mas, para Gabriele Mazzini, era fundamental que a legislação garantisse que “os humanos estão sempre em controlo” quando usam e quando se deparam com estas tecnologias.
Por isso, o regulamento da Inteligência Artificial é baseado no risco potencial da tecnologia ou do sistema. Ou seja, quão mais invasivo ou perverso for o sistema, mais restrita será a legislação.
Etiquetas como “Criado por IA” ou “Com Informação de IA” que têm aparecido no Instagram nos últimos meses correspondem ao menor risco possível nesta escala. Através desta descrição, o Instagram tem começado a identificar imagens que tenham sido geradas com recurso a inteligência artificial.
Contudo, os ‘deep fakes’ - vídeos produzidos com inteligência artificial de pessoas reais, mas que não foram gravados na realidade -, já estão num nível superior de risco e estão sujeitos a outras medidas de regulação.
A questão é que, quanto maior o risco, mais tempo as empresas e os sistemas têm para se adaptar à legislação. Os sistemas de inteligência artificial que correspondam ao maior nível de risco – que mexem com sistemas de avaliação, entre outras coisas - têm até 36 meses para cumprir a lei.
Gabriele Mazzini explica porque é que a lei pode demorar mais do que outras diretivas europeias a ser implementada: não só é uma lei horizontal, que se espalha por vários setores da sociedade e do comércio, como há trabalho a fazer na tecnologia. “A tecnologia ainda não está lá”, lamenta.
Desde que a União Europeia está a tentar regular a inteligência artificial, Gabriele Mazzini está no centro da escrita do documento desde o início, em 2019. Foi um dos autores da primeira versão do AI Act, de 2021, e tem, desde então, sido um dos principais conselheiros legais do processo legislativo.
O Regulamento para a Inteligência Artificial não existe num vácuo. Este novo conjunto de leis complementa-se com outros documentos do mesmo género, que regulam áreas adjacentes à inteligência artificial, como o Regulamento Geral de Proteção de Dados (RGPD), o Regulamento sobre os Dados (Data Act), e, mais recentemente, a Lei dos Serviços Digitais (Digital Services Act) e a Lei dos Mercados Digitais (Digital Markets Act).
Juntamente com estes dois últimos documentos legislativos e a Lei Europeia da Liberdade dos Media (European Media Freedom Act) compõem a chamada nova constituição digital europeia.
Gabriele Mazzini foi o keynote speaker do segundo dia da conferência Data Makers Fest que, entre 24 e 25 de setembro, juntou mais de 850 profissionais da ciência de dados, tecnologia e inteligência artificial na Alfândega do Porto.