Künstliche Intelligenz und Intellectual Property (IP)

Ein Gastartikel von ...

Jan Witt
Jan Witthttps://www.anaqua.com/de/
Jan Witt ist Direktor für Vertrieb DACH bei Anaqua, einem Anbieter integrierter Technologielösungen und Dienstleistungen für das Management geistigen Eigentums (IP). Mit über 10 Jahren Erfahrung in diesem Bereich hat er ein tiefgreifendes Verständnis für die Arbeitsabläufe und organisatorischen Bedürfnisse verschiedener Branchen wie Pharmazie, Biotechnologie, Luft- und Raumfahrt, Automobilindustrie und Telekommunikation entwickelt.

Künstliche Intelligenz (KI) hat sich in sehr kurzer Zeit zu einer starken Kraft auch im Bereich des geistigen Eigentums (IP) entwickelt. Zahlreiche Trends und Entwicklungen beeinflussen derzeit die Branche, die von der Veränderung und Beschleunigung von Prozessen bis hin zur Frage des Eigentums an KI-Inhalten reichen. Diese Trends werfen grundsätzliche Fragen auf und bieten gleichzeitig neue Chancen für Innovation und Effizienz.

Gemäß einer Studie des Fachverlags Wolters Kluwer vom vergangenen Jahr planen über 70 Prozent der Anwälte die Integration von KI-Tools in ihre Arbeitsprozesse.  Befragt wurden dabei 700 Anwälte in den USA und neun europäischen Ländern. Die Studie zeigt aber auch, dass Einsatz und weitere Entwicklung solcher Systeme nicht unumstritten sind: So betonen zwar 43 Prozent der Befragten die Chancen neuer Technologien, über die Hälfte sieht aber neben den Chancen zumindest auch Gefahren im Einsatz von KI (25 Prozent betrachten KI dabei sogar als ausschließlich gefährlich). Die deutliche Skepsis wird sicher auch darin begründet sein, dass heute niemand genau abschätzen kann, welche Fähigkeiten KI-Anwendungen in der Zukunft tatsächlich haben werden, und ob es sogar Kipppunkte geben wird, an denen sich Systeme dauerhaft verselbstständigen und nicht mehr vom Menschen zu kontrollieren sind.

Vier Stufen künstlicher Intelligenz

Um den aktuellen Entwicklungsstand besser einordnen zu können, ist ein Blick auf die wissenschaftliche Einteilung von KI hilfreich. Sie wird in vier Typen klassifiziert, die auf unterschiedlichen Fähigkeiten basieren:  dem Selbstbewusstsein, der Fähigkeit, sich durch Lernen selbst zu verbessern und der Erinnerung an die Vergangenheit. Die niedrigste Stufe ist die reaktive KI. Hier werden Maschinen dazu gebracht, einzelne Aufgaben optimal auszuführen. Schachcomputer wie einst IBMs DeepBlue oder das Brettspiel-Programm AlphaGo von Google sind hier gute Beispiele für Systeme, die nur für eine spezielle Aufgabe trainiert wurden: Das Gewinnen eines Spiels nach vorgegebenen Regeln auch gegen die besten Spieler.

Komplexer wird es schon bei Systemen mit begrenzter Speicherkapazität (Limited Memory). Solche Systeme betrachten die Vergangenheit auf Basis von umfangreichen Daten und lassen die Ergebnisse in die Gegenwart einfließen. Auf diesem Prinzip basiert unter anderem das Verhalten selbstfahrender Autos. Aus umfangreichen Datensätzen der Vergangenheit haben sie gelernt, wie sich Verkehrsteilnehmer üblicherweise verhalten und leiten daraus ihre eigene Reaktion in der Gegenwart ab. Auch ChatGPT oder Midjourney gehören in diese Kategorie – sie nutzen die enormen Datenmengen des Internets, um aus der Vergangenheit zu lernen, wie man neue Texte oder Bilder erzeugt, die den Erwartungen des Anwenders entsprechen.

Die Kategorien 3 und 4 müssen derzeit nur der Vollständigkeit halber erwähnt werden, denn es gibt im Moment noch keine KI-Anwendungen auf diesem Niveau. „Theory of Mind“-Modelle (Stufe 3) werden in der Lage sein, menschliche Emotionen zu analysieren und darauf mit individuellen Verhaltensanpassungen zu reagieren. In Stufe 4  (Self Awareness) schließlich würden Computersysteme die Ebene des menschlichen Bewusstseins betreten und könnten alle Aufgaben mindestens genauso gut wie ein Mensch erledigen.

Heute spielt sich der Fortschritt im Bereich der Modelle mit begrenztem Gedächtnis (Stufe 2) ab. Diese können mit dem erlernten Wissen – bei richtiger Anleitung – Erstaunliches hervorbringen, dies aber immer nur auf Basis des jeweils Erlernten.

KI im Rechts- und IP-Bereich

Für den Einsatz von Stufe 2 KI im Rechts- und Patentbereich kann es derzeit nur darum gehen, einzelne Aufgaben zu automatisieren. Ein Beispiel:

Bei der Suche nach dem sogenannten Stand der Technik, der für die Beurteilung der Patentfähigkeit einer Innovation von entscheidender Bedeutung ist, werden oft Zusammenfassungen von bereits bestehenden Patenten analysiert. Diese Informationen sind in den Datenbanken der Patentämter öffentlich zugänglich und können von KI-Systemen wesentlich effizienter und vor allem schneller durchsucht werden, als Menschen dies je könnten.  Entscheidend ist, dass die KI hier nicht nur eine Stichwortsuche durchführt, wie es auch jeder Crawler könnte. Stattdessen entwickelt sie ein grundsätzliches Verständnis der zu analysierenden Texte und ist darum prinzipiell in der Lage, relevante Inhalte zu erkennen. Die hohe Komplexität vieler Patentanmeldungen, beispielsweise in der Molekularbiologie, wird aber auf absehbare Zeit weiterhin spezialisierte Patentanwälte erfordern, die mit gelerntem Fachwissen auf Basis der KI-Recherche eine Entscheidung bezüglich der tatsächlichen Patentierbarkeit einer Innovation treffen. Schneller als früher geht das aber schon heute.

Das beschriebe Beispiel lässt sich auf eine Reihe weitere Arbeitsschritte bei der Bearbeitung von Marken- und Patentrechten übertragen. So lassen sich mit KI-gestützten Systemen schon heute hervorragend Zusammenfassungen von Texten erstellen, wie sie in Patentschriften gefordert werden. Auch bei der Anmeldung von Markenrechten kann KI wirkungsvoll unterstützen, in dem sie mit Verfahren der Bilderkennung auf mögliche Plagiate hinweist. Wiederum geht ein solches Modell dabei deutlich weiter, als man es von der starren Rückwärts-Bildsuche bei Google kennt, in dem es auch Derivate und Abwandlungen einer grafischen Vorlage identifiziert.

KI halluziniert gerne

Doch auch die neue Welt der KI-Anwendungen in den Stufen 1 und 2 hat technische Grenzen, die im Rechtsbereich besonders gravierend sein können. Gemeint ist das bekannte Problem der „Halluzinationen“, wenn vollkommen neue Textelemente selbstständig hinzugefügt werden, die nicht existieren.  Ebenfalls gilt zu beachten, dass auch eine KI wichtige Passagen bei Zusammenfassungen unter Umständen plötzlich einfach auslässt.

Verbesserte Modelle, mehr Trainingsdaten, menschliches Feedback, RAG (Retrieval Augmented Generation), automatisierbare Faktenchecks und andere Verbesserungen sollen dazu beitragen, dem Phänomen der Halluzination entgegenzuwirken – wissenschaftlich ist aber bisher nicht eindeutig geklärt, ob das überhaupt möglich ist, oder ob „Halluzinationen“ ein generelles Merkmal von KI-Modellen der Stufe 2 darstellen.

Wird die KI selbst zum Erfinder?

Natürlich kann man die Frage stellen, ob die Ergebnisse von KI-Anwendungen – also das Erschaffen von Neuem durch geeignete Verarbeitung von Ergebnissen aus der Vergangenheit – nicht selbst Grundlage für eine Patent- oder Markenanmeldung sein könnten. Kann eine KI also selbst zum Erfinder werden? Dazu hat etwa das Deutsche Patent- und Markenamt in einem Workshop im vergangenen Jahr betont: „Auch die stärkste KI könnte derzeit keine Schutzrechte anmelden, weil sie kein Rechtssubjekt wäre. Bisher handelt es sich bei der KI letztlich um ein weiteres Werkzeug, das sich Erfinderinnen und Erfinder bei ihrer Arbeit zunutze machen. Schutzrechte können zwar mit KI generiert werden, Anmelder und Erfinder bleiben aber weiterhin ausschließlich Menschen.“ Doch was passiert, wenn rein KI-basierte Neuentwicklungen tatsächlich anschließend   von Menschen, die KI nur bedienen, aktiv vermarktet werden?

Regulierung durch die Europäische Union

Auch deswegen hat die Europäische Union als erstes Regulierungsprojekt dieser Art weltweit „AI Act“ verabschiedet. Er soll den Umgang mit Daten, vor allem aber auch den Prozess der KI-basierten Entscheidungsfindung gesetzlich regeln. Der „AI Act“ definiert vier Risikostufen von Anwendungen, wobei die ungefährlichsten quasi unreguliert bleiben, während die am meisten kritischen deutlich reglementiert oder sogar komplett verboten werden.  Zu den Systemen mit hohem Risiko zählen Anwendungen, die Gesundheit, Sicherheit, Umwelt, Grundrechte und die Demokratie gefährden können. Dazu gehören beispielsweise selbstfahrende Autos, automatisierte Kreditvergaben, medizinische aber auch  juristische Anwendungen. Hier gilt grundsätzlich eine Transparenzpflicht: Die Anbieter müssen stets genau erklären können, wie die Entscheidungen ihrer KI-Systeme zustande gekommen sind. Ein Patentanmelder, dessen Antrag auf Erteilung abgelehnt wurde, hat gemäß „AI Act“ also in Zukunft das Recht, genau zu erfahren, wie diese Entscheidung zustande gekommen ist, sofern künstliche Intelligenz dabei im Spiel war.

Auch im Bereich des Urheberrechts setzt der „AI Act“ erste Regeln fest. Denn für die Entwicklung von KI wird oftmals eine enorm große Menge von geschützten Werken zu „Trainingszwecken“ herangezogen, etwa frei zugängliche (aber geschützte) Texte im World Wide Web. Hier soll die im „AI Act“ der Europäischen Union formulierte „Transparenzpflicht“ zu mehr Schutz der Urheber geistigen Eigentums beitragen. Zwar betonen einige Interessensverbände, dass die im Gesetz formulierte Vorgabe bei Weitem noch nicht weit genug geht, zumindest aber begrüßen alle, dass die Frage des geistigen Eigentums grundsätzlich thematisiert wird. Generative KI wie ChatGPT wird im „AI Act“ zwar nicht als risikoreich eingestuft, muss aber die Transparenzanforderungen und das EU-Urheberrecht erfüllen. Verpflichtend ist auch die Offenlegung, dass ein Inhalt durch KI generiert wurde und die Veröffentlichung von Zusammenfassungen der für das Training verwendeten urheberrechtlich geschützten Daten.

Die weitere Entwicklung von KI wird mit Sicherheit nicht aufzuhalten sein, aber Menschen werden wahrscheinlich viel mehr als früher darauf achten müssen, mit welchen Informationen sie arbeiten und sie ihre Entscheidungen in Beruf und Privatleben treffen.

Weitere Artikel von
Expertinnen & Experten

Neu auf dm