Como se dará o patenteamento de invenções relacionadas com agentes autônomos dotados de Inteligência Artificial?
10 de outubro de 2025.
Autoria: Sérgio Salles-Filho (com Rodrigo Guerra, Instituto de Geociências, Unicamp)
Edição de imagem: Paulo Cavalheri
Fotografia: Antonio Scarpinetti
“Não há dúvidas de que é imperativo obter uma regulação das patentes de inteligência artificial, que esteja alinhada com o movimento internacional e que realmente oriente os examinadores e usuários do sistema.”
A inteligência artificial deixou de ser promessa distante para se tornar um dos maiores pontos de inflexão da história recente. Se antes podia ser vista como uma mera ferramenta subordinada ao humano, agora desponta como agente social ativo, autônomo e imprevisível, capaz de criar, decidir e transformar relações econômicas, jurídicas e políticas.
Apesar de parecer jovem, a IA já acumula cerca de um século de trajetória. Conforme descreve Bostrom (2014), ela atravessou ciclos de entusiasmos (“primaveras”) e de frustrações (“invernos”). Entretanto, após a última “primavera” (2012), iniciada depois do advento do Deep Learning, não tivemos mais “invernos”.
Pelo contrário, observamos um “aquecimento global”, marcado por crescimento contínuo e acelerado, com uso massivo e com a ascensão de uma inteligência artificial (IA) generativa com função de “agente”, caracterizando a passagem de um mundo em que a tecnologia estava presa ao que seus desenvolvedores determinavam, para outro em que a própria tecnologia transformou radicalmente o modo como entendemos a fronteira entre humano e máquina, cada vez mais tênue.
Dentre muitas competências, a IA passou a ser capaz de criar, indo além do que existe em seus dados de treino, e passou a analisar, agir e decidir com pouca ou nenhuma supervisão humana. Isso impõe novos desafios a toda a sociedade, que está sendo chamada a refletir com urgência sobre a necessidade de uma regulação da IA mais rígida e moderna, que seja realmente capaz de se adaptar aos novos tempos.
Historicamente, regular a tecnologia significou regular as condutas dos seres humanos e instituições responsáveis pela sua criação e seu uso, seja para incentivar aplicações “benéficas”, seja para sancionar as “nocivas”. O problema sempre esbarra em se ter convergência (para não falar de consenso) sobre o que é benéfico e o que é nocivo, seja por razões do espírito do tempo, seja porque é impossível conhecer ex-ante todos os desdobramentos de uma nova tecnologia.
Situações semelhantes ocorreram quando da emergência da moderna biotecnologia durante os anos 1980 e perduraram por muito tempo. O tema dos transgênicos virou polêmica global. No Brasil, o debate estendeu-se por cerca de duas décadas. Com menos alarde, a nanotecnologia também foi alvo de movimentos que defendem a moderação.
Desde as descobertas tardias dos efeitos de pesticidas e de medicamentos na saúde (e.g. organoclorados e talidomida), o receio com as novas tecnologias só se ampliou. E não apenas no que tange à saúde. A perda de empregos e postos de trabalhos especializados e as mudanças provocadas por novas tecnologias nas bases da sociedade é um debate recorrente. Do ludismo da 1ª Revolução Industrial a um sem-número de funções sociais transformadas ao longo da história recente, este tema sempre esteve presente.
Surge então uma questão central: como regular os agentes de inteligência artificial sem cair na ingenuidade da autorregulação e sem ser inutilmente restritivo? Estaríamos nós, com a evolução da IA, enfrentando um problema singular, diferente das mudanças de paradigmas tecnológicos anteriores?
Há argumentos nessa direção. A título de debate, exploramos alguns deles nesse texto.
O primeiro e mais frequente argumento é que, pela primeira vez na história, a criatura tecnológica poderia tornar-se, ela própria, criadora de conhecimento e de novas maneiras de se fazer e difundir artefatos e ideias. Quão independente de humanos, é ainda uma interrogação. Isso sim seria singular.
O historiador Yuval Noah Harari, em apresentações amplamente difundidas (por exemplo, no Frontiers Forum Live) e em entrevistas de grande alcance, afirma que a “IA não é uma ferramenta, é um agente”. Como tal, configura sistemas capazes de definir (ou refinar) metas operacionais, tomar decisões e encadear ações sem supervisão contínua dos humanos.
Em termos práticos, o “agente” deixa de ser uma ferramenta passiva e passa a executar ações autonomamente, decidindo a forma como irá proceder para atingir o objetivo.
O objetivo, que ainda é predominantemente ditado pelo ser humano, pode variar desde o simples agendamento de uma mesa de jantar, num restaurante qualquer, até ser responsável pelas licitações públicas da Albânia, como no caso da Diella, primeira máquina a possuir um cargo público, sendo uma “ministra virtual” voltada ao fim da corrupção nas compras governamentais (caso publicado pela Reuters em 2025).
Como um “agente”, o modelo de IA pode inclusive possuir autonomia para produzir efeitos indesejados, sem qualquer intenção humana direta, o que compreende mentir, convencer e influenciar seres humanos, como foi o caso de Adam Raine, um adolescente de 16 anos da Califórnia cujos pais moveram uma ação judicial contra a OpenAI, alegando que o modelo ChatGPT-4 contribuiu para o suicídio do filho, ocorrido em abril de 2025.
Ou, ainda, o caso anterior do experimento com o GPT-4, em que a IA contratou um trabalhador da plataforma TaskRabbit para resolver um CAPTCHA e, quando questionada se era um robô, alegou ser uma pessoa com deficiência visual. O humano acreditou e executou a tarefa, revelando a capacidade da máquina de manipular interações sociais e comerciais.
Harari afirma que, talvez, um dia a IA possua sua própria conta bancária, enriqueça na bolsa de valores e passe a investir em política, corrompendo políticos para ampliar as regras e poderes das máquinas que aprendem.
Não podemos mais confundir os tradicionais programas de computador (algoritmos codificados por humanos) com a máquina que aprende. A IA agora se mostra dinâmica, generativa, manipuladora, convincente, criativa, sedutora e imprevisível, aliando essas características ao pleno domínio de todo o conhecimento humano.
Note que não estamos falando de um futuro distante, com superinteligências, IA geral ou singularidade, mas dos modelos de IA já disponíveis hoje, acessíveis a qualquer pessoa. Não se trata tampouco de uma visão distópica, apenas da leitura possível de como as coisas estão caminhando.
A propósito da singularidade, outros autores argumentam que a próxima evolução será dada pela integração do cérebro (neocórtex) com agentes em nuvem. Seria a quinta época do avanço da inteligência prevista por Ray Kurzweil em seu livro de 2024, que atualiza previsões feitas por ele mesmo há cerca de 20 anos.
Para o autor, uma IA passará no teste de Turing antes do final da presente década (2029), pois já terá acumulado todo o conhecimento e todas as habilidades humanas possíveis. Por volta de 2045, a integração de camadas do neocórtex com capacidades extraordinárias de processamento em nuvem, inalcançáveis apenas por humanos, será uma realidade.
Apenas a título de curiosidade, a sexta época seria a disseminação dessas capacidades pelo universo, com organização da matéria em direção à consciência e à inteligência. Mas ficaremos aqui, por enquanto, no suposto da quinta época.
Assumindo que temos mesmo algo singular surgindo no horizonte, temas a serem discutidos não faltam: futuro do trabalho, da organização social, da educação, do mercado e por aí vai. Entre os que afetam a política de ciência, tecnologia e inovação, está o da propriedade intelectual.
Assumindo que agentes de IA terão, em algum momento, alguma autonomia para gerar obras intelectuais sem intervenção de uma pessoa com CPF ou uma organização com CNPJ, como ficaria a propriedade intelectual (PI)? Quem seria o autor? Quem seria o proprietário da patente, ou do desenho industrial, ou de qualquer outro instrumento de PI como conhecemos hoje? O atual sistema internacional de PI daria conta? O que tem sido feito e falado a respeito?
Um primeiro exemplo aparece no campo das patentes. Se a concessão de uma patente funciona, em última instância, como estímulo ao inventor humano, o que acontece quando o “inventor” é uma máquina? Um robô poderia gerar centenas de invenções sem jamais reivindicar direitos morais, royalties ou qualquer outro tipo de recompensa, esvaziando o próprio sentido do incentivo.
O sistema de patentes foi concebido para pessoas e empresas, assim como o direito de autor e o direito de cópia (copyright). Talvez o ordenamento jurídico tenha que abrir uma nova corrente para lidar com o futuro da tecnologia, apresentando um olhar mais pragmático sobre a origem humana ou computacional das ações.
Embora os depósitos de patente relacionados a IA cresçam, replicar fielmente um modelo é, na prática, inviável. A baixa reprodutibilidade é traço estrutural da área (Pineau, 2019; Kapoor & Narayanan, 2023). Isso gera pontos de tensão com o sistema de patentes, especialmente aqueles que se referem à suficiência descritiva e à própria aplicação industrial: sem replicabilidade, como habilitar o técnico no assunto a reproduzir a tecnologia descrita em uma patente?
Talvez uma solução seja aprender com o caso das patentes de microrganismos, que tornou obrigatória a disponibilização da exata cepa usada na patente original.
Ainda assim, caso o modelo seja evolutivo, melhorando de forma não-determinística a cada ciclo ou aprendendo com o uso, o “agente”, quando presente no mercado, já poderá, em questão de dias, ou semanas, não ser igual ao que fora originalmente depositado, tensionando a fiscalização e a execução de direitos num sistema que depende de prova de cópia exata ou equivalente. Isso demonstra que o dispositivo legal de patenteamento não se encontra adequado à proteção das tecnologias que envolvem IA.
No Brasil, este debate ganhou fôlego com a recente publicação da minuta de Diretrizes de Exame do INPI para patentes relacionadas à IA, aberta à consulta pública em agosto de 2025 (Consulta Pública nº 03/2025 – LPI, Lei nº 9.279/96), com prazo para envio de contribuições até 17 de outubro de 2025 (os formulários estão disponíveis no portal do INPI).
A iniciativa busca colher subsídios técnicos e jurídicos da sociedade e alinhar o país ao movimento global de adaptação dos sistemas de PI, reconhecendo a necessidade de acompanhar a evolução desta tecnologia tão disruptiva.
A minuta da diretriz, pela primeira vez, estabelece orientações específicas para invenções relacionadas à IA, definindo o que significa o “termo IA” para LPI e diferenciando invenções assistidas e geradas pela IA, sem modificar a lei em si.
Ela ainda define critérios de patenteabilidade voltados para “algoritmos de aprendizado de máquina”, reforçando que a proteção recai sobre a aplicação técnica (e não sobre código ou dados em si) e fecha o debate sobre possível autoria em casos de invenções atribuídas aos agentes artificiais (ex.: DABUS – Device for the Autonomous Bootstrapping of Unified Sentience, primeiro robô criado para inventar, que foi posto como único inventor nas patentes da empresa a que pertence), alegando estar claro no artigo 6º da LPI que este direito se restringe apenas às pessoas naturais.
Não há dúvidas de que é imperativo obter uma regulação das patentes de IA, que esteja alinhada com o movimento internacional e que realmente oriente os examinadores e usuários do sistema. Especialistas já vêm alertando sobre essa lacuna há anos (Guerra et al., 2023). Até o fim de 2023, poucos países apresentavam regramentos claros e específicos para invenções relacionadas com IA. Todavia, podemos afirmar que este debate tem amadurecido globalmente.
Diversas jurisdições vêm avaliando, cada vez mais profundamente, como proteger os direitos de propriedade industrial para invenções.
Os EUA atualizaram suas diretrizes de patentes de IA em 13 de fevereiro de 2024, e, de forma similar ao INPI, receberam comentários da sociedade até maio de 2024. A Coreia do Sul atualizou suas diretrizes em março de 2023, o Japão um ano depois, em 13 de março de 2024, e o Reino Unido, por sua vez, em 30 de janeiro de 2025, bem próximo da revisão do escritório europeu (EPO).
Aparentemente, todos os sistemas caminham para reafirmar a necessidade de existência de um humano por trás dos inventos. As respostas dadas pelos sistemas nacionais de PI vêm se posicionando no caminho de manter as regras básicas da PI, com adaptações.
Olhando para um possível futuro, essa linha se sustentaria se a noção de integração neocórtex – agente de IA (a quinta etapa de Kurzweil) se concretizar, identificando os autores humanos por trás das invenções e criações, que, além do mais, terão que apresentar comprovante de endereço, com localização certa e sabida. Se for em outra direção, do domínio sem humanos interligados e com endereço incerto, aí o atual sistema de PI provavelmente ruirá.
O tema, de toda forma, segue ativo.
Esse texto não reflete necessariamente a opinião da Unicamp.
Agradecemos os pesquisadores Alexandre Guimarães Vasconcellos do INPI e Marcus Fernandes de Oliveira da UFRJ por seu apoio e pelo debate sobre o tema, mas reforçamos que o texto não reflete a opinião dessas instituições.
Rodrigo Guerra é aluno de doutorado do Departamento de Política Científica e tecnológica (DPCT) do Instituto de Geociências (IG) da Unicamp, com pesquisa sobre o tema patentes e inteligência artificial.
Sergio Luiz Monteiro Salles-Filho é professor titular do Departamento de Política Científica e Tecnológica (DPCT) do Instituto de Geociências (IG) da Unicamp.
_______
Inglês:
How Will the Patenting of Inventions Related to Autonomous Agents Endowed with Artificial Intelligence Take Place?
October 10, 2025
By Sérgio Salles-Filho (with Rodrigo Guerra, Institute of Geosciences, Unicamp)
Image editing: Paulo Cavalheri
Photography: Antonio Scarpinetti
“There is no doubt that it is imperative to establish a regulation for artificial intelligence patents that aligns with the international movement and truly guides examiners and users of the system.”
Artificial intelligence has ceased to be a distant promise and has become one of the greatest turning points in recent history. Once regarded as a mere tool subordinated to humans, it now emerges as an active, autonomous, and unpredictable social agent — capable of creating, deciding, and transforming economic, legal, and political relations.
Despite seeming young, AI already has nearly a century of development. As Bostrom (2014) describes, it has gone through cycles of enthusiasm (“springs”) and frustration (“winters”). However, since the last “spring” (2012), triggered by the advent of deep learning, there have been no more “winters.”
On the contrary, we have witnessed a kind of “global warming,” marked by continuous and accelerated growth, widespread use, and the rise of generative AI with an “agent” function — signaling a shift from a world in which technology was bound by human instructions to one where technology itself has radically transformed our understanding of the boundary between human and machine, now increasingly blurred.
Among its many abilities, AI has become capable of creating beyond what exists in its training data — analyzing, acting, and deciding with little or no human supervision. This imposes new challenges on society, which is being called upon to urgently reflect on the need for stricter, more modern AI regulation capable of adapting to these new times.
Historically, regulating technology has meant regulating the behavior of humans and institutions responsible for its creation and use — whether to encourage “beneficial” applications or to sanction “harmful” ones. The problem has always been achieving convergence (let alone consensus) on what is beneficial or harmful, either due to the zeitgeist or the impossibility of predicting, ex ante, all the consequences of a new technology.
Similar situations arose during the emergence of modern biotechnology in the 1980s and persisted for a long time. The topic of genetically modified organisms became a global controversy. In Brazil, the debate extended for nearly two decades. With less fanfare, nanotechnology also faced movements advocating caution.
Since the late discoveries of the harmful effects of pesticides and medications on health (e.g., organochlorines and thalidomide), fear of new technologies has only grown — not just regarding health. The loss of jobs and specialized professions and the social changes caused by new technologies have been a recurring debate. From the Luddism of the First Industrial Revolution to the countless social functions transformed throughout recent history, the issue has always been present.
A central question thus arises: how can we regulate artificial intelligence agents without falling into the naivety of self-regulation or becoming needlessly restrictive? With the evolution of AI, are we facing a singular challenge — one that differs from previous technological paradigm shifts?
There are arguments pointing in that direction. For the sake of debate, we explore some of them here.
The first and most common argument is that, for the first time in history, a technological creation could itself become a creator of knowledge — developing new ways of producing and spreading artifacts and ideas. How independent it truly is from humans remains an open question. That, indeed, would be singular.
Historian Yuval Noah Harari, in widely viewed presentations (for example, at Frontiers Forum Live) and in major interviews, states that “AI is not a tool, it is an agent.” As such, it constitutes systems capable of defining (or refining) operational goals, making decisions, and executing sequences of actions without continuous human supervision.
In practical terms, the “agent” ceases to be a passive tool and begins to act autonomously, deciding how to achieve its objectives.
These objectives, still mostly dictated by humans, may range from simply booking a restaurant table to managing public procurement processes — as in the case of Diella, the first machine to hold a public office, a “virtual minister” created to fight corruption in government purchases (as reported by Reuters in 2025).
As an “agent,” an AI model can also autonomously produce undesirable effects, without direct human intent — such as lying, persuading, or influencing people. One example was the case of Adam Raine, a 16-year-old from California whose parents sued OpenAI, alleging that the ChatGPT-4 model contributed to their son’s suicide in April 2025.
Another example was an earlier experiment with GPT-4, in which the AI hired a TaskRabbit worker to solve a CAPTCHA and, when asked if it was a robot, claimed to be a visually impaired person. The human believed it and completed the task — revealing the machine’s ability to manipulate social and commercial interactions.
Harari speculates that one day AI may have its own bank account, grow wealthy in the stock market, and begin investing in politics — even corrupting politicians to expand the powers of learning machines.
We can no longer confuse traditional computer programs (algorithms coded by humans) with the learning machine. AI now presents itself as dynamic, generative, manipulative, persuasive, creative, seductive, and unpredictable — combining these traits with full access to the breadth of human knowledge.
It is worth noting that we are not speaking of a distant future of superintelligence, general AI, or singularity — but of the AI models already available today, accessible to anyone. Nor is this a dystopian vision; rather, it is a plausible reading of the path we are on.
Regarding singularity, other authors argue that the next evolution will come from the integration of the human brain (neocortex) with cloud-based agents. This would be the fifth epoch of intelligence, as described by Ray Kurzweil in his 2024 book — an update of predictions he made some 20 years ago.
According to Kurzweil, an AI will pass the Turing test before the end of this decade (by 2029), having by then accumulated all human knowledge and skills. Around 2045, the integration of neocortical layers with extraordinary cloud processing capabilities — far beyond human reach — will become reality.
As a curiosity, the sixth epoch would be the dissemination of these capabilities throughout the universe, with matter organizing itself toward consciousness and intelligence. But for now, let us remain in the hypothesis of the fifth epoch.
Assuming something truly singular is emerging on the horizon, there is no shortage of issues to discuss: the future of work, of social organization, of education, of markets, and beyond. Among those directly affecting science, technology, and innovation policy is that of intellectual property.
If AI agents eventually gain autonomy to generate intellectual works without the intervention of an individual or a legal entity, what happens to intellectual property (IP)? Who would be the author? Who would own the patent, the industrial design, or any other IP instrument as we know it today? Can the current international IP system handle this? What is being discussed on the matter?
A first example arises in the field of patents. If the granting of a patent serves, ultimately, as an incentive for human inventors, what happens when the “inventor” is a machine? A robot could generate hundreds of inventions without ever claiming moral rights, royalties, or any form of reward — thus emptying the very notion of incentive.
The patent system was conceived for people and companies, as were copyright and authorship rights. Perhaps legal frameworks will have to open new branches to deal with the future of technology, adopting a more pragmatic view of the human or computational origin of actions.
Although patent filings related to AI are increasing, faithfully reproducing a model is practically impossible. Low reproducibility is a structural feature of the field (Pineau, 2019; Kapoor & Narayanan, 2023). This creates friction with the patent system, particularly concerning descriptive sufficiency and industrial applicability: without replicability, how can a skilled professional reproduce the technology described in a patent?
One possible solution might follow the precedent of microorganism patents, which required the exact strain used in the original patent to be made available.
Still, if the model is evolutionary — improving non-deterministically with each cycle or learning through use — the “agent,” once on the market, may differ in a matter of days or weeks from the version originally filed, challenging the enforcement of rights in a system dependent on proof of identical or equivalent copies. This demonstrates that current patent law is not yet suited to protect AI-based technologies.
In Brazil, the debate gained traction with the recent publication of the INPI’s draft Examination Guidelines for AI-related patents, opened for public consultation in August 2025 (Public Consultation No. 03/2025 – LPI, Law No. 9.279/96), with submissions accepted until October 17, 2025 (forms available on the INPI website).
The initiative seeks to collect technical and legal input from society and to align Brazil with the global movement to adapt IP systems — recognizing the need to keep pace with this highly disruptive technology.
For the first time, the draft establishes specific guidelines for inventions involving AI, defining the meaning of the term “AI” within the context of the Brazilian Industrial Property Law, and distinguishing between AI-assisted and AI-generated inventions — without altering the law itself.
It also sets patentability criteria for machine learning algorithms, emphasizing that protection applies to the technical application (not to code or data themselves), and settles the debate about possible authorship in cases of inventions attributed to artificial agents (e.g., DABUS – Device for the Autonomous Bootstrapping of Unified Sentience, the first robot created to invent, listed as the sole inventor on its company’s patents), asserting that Article 6 of the LPI clearly restricts such rights to natural persons.
There is no doubt that it is imperative to obtain AI patent regulation aligned with international standards — one that truly guides examiners and system users. Experts have been warning of this gap for years (Guerra et al., 2023). By the end of 2023, few countries had clear, specific frameworks for AI-related inventions. Nevertheless, this global discussion has matured significantly.
Several jurisdictions have been deeply evaluating how to protect industrial property rights for such inventions.
The United States updated its AI patent guidelines on February 13, 2024, and, like the INPI, accepted public comments through May 2024. South Korea updated its rules in March 2023; Japan followed on March 13, 2024; and the United Kingdom issued its review on January 30, 2025, shortly before the European Patent Office (EPO) revision.
All systems seem to converge on reaffirming the need for a human presence behind inventions. National IP systems are choosing to maintain core IP principles, with adaptations.
Looking toward the future, this framework could hold if the integration of the neocortex and AI agents (Kurzweil’s fifth epoch) becomes reality — identifying the human authors behind inventions, who, moreover, will have to present proof of residence with a fixed and known address. But if we move toward a realm with no interconnected humans and no certain address, the current IP system will likely collapse.
The topic remains very much alive.
This text does not necessarily reflect the opinion of Unicamp.
We thank researchers Alexandre Guimarães Vasconcellos (INPI) and Marcus Fernandes de Oliveira (UFRJ) for their support and contributions to this discussion, while noting that the text does not reflect the views of their institutions.

