
Capa do livro ‘Don’t Steal This Book’
Exemplares de um livro cujo conteúdo era apenas uma lista contendo os nomes de 10 mil autores começaram a ser distribuídos na Feira do Livro de Londres na terça-feira (10). Escritores como Kazuo Ishiguro (“Não me abandone jamais”) e Marian Keyes (“Melancia”) participaram da iniciativa, que protesta contra o uso de obras por empresas de IA (inteligência artificial) sem a autorização dos autores.
A distribuição aconteceu antes de o governo do Reino Unido divulgar em 18 de março uma consulta sobre como regulamentar o acesso de empresas de IA a materiais protegidos por direitos autorais.
Neste texto, o Nexo apresenta o protesto dos autores britânicos, de que maneira empresas estão sendo julgadas pelo uso de livros para treinar suas IAs e como as legislações têm tentado acompanhar o assunto.
O livro “Don’t Steal This Book” (“Não roube este livro”, em tradução do inglês) foi organizado pelo britânico Ed Newton-Rex, compositor e defensor da garantia de direitos autorais.
Em entrevista ao jornal britânico The Guardian, Newton-Rex afirmou que a indústria de IA foi construída sobre “trabalhos roubados, pegos sem permissão ou pagamento”.
“Isso não é um crime sem vítimas – a inteligência artificial generativa compete com as pessoas cujos trabalhos foram usados para treinamento, roubando delas suas vidas inteiras. O governo deve proteger os artistas do Reino Unido e negar a legalização do roubo de trabalho criativo por empresas de IA”, disse o artista.
Além dos nomes de autores participantes, o livro apresenta na contracapa a frase: “o governo do Reino Unido não deve legalizar o roubo de livros em benefício de empresas de IA”.
A Sociedade de Autores britânica também anunciou na Feira do Livro um programa que ajuda a identificar obras escritas por humanos. Os escritores agora podem exibir um logotipo de “autoria humana” na contracapa.
O protesto dos escritores não foi o primeiro no Reino Unido a discutir os direitos dos artistas.
Em fevereiro de 2025, mais de 1.000 artistas britânicos participaram do álbum “Is This What We Want?”, cujas faixas apresentam sons de estúdios e espaços de performance vazios. O vazio é uma representação simbólica do que os artistas acreditam que acontecerá caso empresas consigam utilizar obras atualmente protegidas por direitos autorais para treinar inteligências artificiais.
Em julho de 2025, a Anthropic, empresa criadora do chatbot Claude, foi condenada pela Justiça americana a pagar US$ 1,5 bilhão para remunerar detentores de direitos de obras usadas para treinar seus sistemas de inteligência artificial.
A empresa estudava desde 2023 uma maneira de tornar melhores as respostas fornecidas pelo chatbot. A solução encontrada por Tom Turvey, ex-chefe de parcerias do Google Livros, foi comprar milhões de livros, escaneá-los – o que danificava os objetos no processo – e usá-los para treinar seus modelos de IA. Em alguns casos, também foram baixados livros que eram disponibilizados em plataformas de pirataria.
A situação também alcançou o Brasil. Segundo um levantamento do Núcleo Jornalismo, ao menos 22 editoras brasileiras tiveram obras obtidas e armazenadas ilegalmente pela Anthropic.

Logo da Meta, empresa de Mark Zuckerberg, em conferência em Mumbai, Índia
Escritores entraram com uma ação acusando a empresa de usar seus textos sem autorização. A Anthropic, por sua vez, argumentou que a ação tinha fins de pesquisa e, por isso, estava autorizada a utilizar os materiais sem remunerar os autores.
Em junho, o juiz americano William Alsup defendeu que não havia problema em utilizar os livros para treinar os modelos de IA. Segundo ele, o material era processado de uma forma “transformadora”, similar à maneira como crianças são treinadas para escreverem melhor.
O problema, de acordo com Alsup, foi o download gratuito de milhões de livros pirateados para treinar as inteligências artificiais, o que poderia configurar infração aos direitos autorais. A empresa irá ressarcir os envolvidos num valor médio por obra de US$ 3.000.
A Meta também fez o download ilegal de milhões de livros para treinar seus chatbots e enfrentou uma ação similar iniciada pelos escritores afetados.
Nesse caso, o juiz Vince Chhabria considerou que os escritores falharam em demonstrar como os modelos de IA poderiam afetar negativamente as vendas de seus livros, mas que a empresa havia baixado e distribuído ilegalmente cópias de obras pirateadas.
A distribuição aconteceu porque os funcionários utilizaram o BitTorrent, ou seja, ao mesmo tempo que baixaram os livros, eles compartilharam automaticamente o material com outras pessoas.
A ação ainda não chegou ao fim. Na segunda-feira (2), a empresa disse que precisava de milhões de obras protegidas por direitos autorais e o BitTorrent era a única maneira prática de obter essas obras em massa. Assim, o uso se enquadra na defesa de uso justo.
A medida em discussão no Reino Unido tornaria possível a empresas treinar seus modelos de IA com conteúdos encontrados na internet, sem permissão prévia. Caso sejam contrários, os criadores dos conteúdos devem escolher a opção “opt out” (“sair”).
O governo do país tenta resolver um impasse entre os dois setores. Segundo a consulta, se por um lado os artistas estão preocupados que seus trabalhos poderão ser utilizados sem autorização prévia, por outro, as empresas de IA criticam a falta de clareza sobre como podem usar dados para treinar seus algoritmos de maneira legal.
Para os artistas, a opção de “opt out” é injusta e pode não funcionar na prática. Eles afirmam que, caso não queiram que seu trabalho seja usado dessa forma, não será possível notificar diversos serviços de inteligência artificial diferentes ou monitorar suas criações na internet.
Além da proposta principal do governo, os ministros sugeriram três outras opções: deixar a situação inalterada; exigir que as empresas de IA solicitem licenças para usar obras protegidas por direitos autorais; ou permitir que as empresas de IA usem obras protegidas por direitos autorais sem a opção de exclusão para empresas e indivíduos criativos.
De acordo com uma reportagem do jornal Financial Times, a discussão envolvendo direitos autorais será adiada. As respostas à consulta do governo não foram favoráveis aos modelos propostos e os ministros deverão dedicar mais tempo ao assunto.
Nos Estados Unidos, desde 2023 o “Relatório do escritório de direitos autorais dos EUA sobre direitos autorais e inteligência artificial” analisa as questões de direito autoral e as políticas relacionadas à inteligência artificial.
As principais considerações incluem limitações de uso justo em contextos comerciais onde os resultados da IA podem substituir obras originais e diretrizes legais mais claras para delimitar as fronteiras do uso justo no contexto do treinamento de IA.
Já no Brasil, os casos que chegam à Justiça envolvendo a disputa entre direitos autorais e inteligência artificial são discutidos individualmente.
O projeto de lei nº 2.338/2023, que propõe regular o uso de IA no Brasil, também determina que é obrigatório aos desenvolvedores de IA generativa remunerar os autores de conteúdo de obra protegida no qual a tecnologia é treinada.