Inma Martinez – Künstliche Intelligenz 2025
Inma Martinez: Künstliche Intelligenz 2025: Was ist real, was ist ein Hype, und wie können Unternehmen mit fortgeschrittener KI Wettbewerbsvorteile schaffen (Deep Learning, GenAI, große und kleine Grundmodelle).
Im Jahr 2025 ist künstliche Intelligenz nicht mehr nur eine Welt mathematischer Algorithmen, die Regeln für maschinelles Lernen in computergestützten Systemen erstellen, sondern eine außergewöhnliche Landschaft fortschrittlicher kognitiver Systeme, die innerhalb von 18 Monaten auf den Markt gekommen sind, um zu dem zu werden, was Regierungen und Regulierungsbehörden heute als fortschrittliche KI-Systeme betrachten. Obwohl diese KI-Systeme seit Jahrzehnten „in der Mache“ waren und stetige Fortschritte gemacht haben, erschüttert der explosive Wandel, den wir heute erleben, Gesellschaft und Wirtschaft in ihren Grundfesten. Nicht nur, weil wir erkannt haben, dass diese KI-Systeme ein unvorstellbares Maß an Effizienz erreichen, sondern auch, weil sie uns zwingen, uns mit der menschlichen Kognition und den menschlichen Fähigkeiten auseinanderzusetzen und diese mit dieser bahnbrechenden Leistung zu vergleichen, insbesondere wenn KI-Agenten nicht nur durch Versuch und Irrtum lernen, sondern auch das Selbstlernen beherrschen und damit den Weg für die General Purpose AI ebnen, die große KI-Blackbox, die uns überlisten kann.
Was die Vorstellungskraft der Menschheit beflügelt und unsere gemeinsame wachsende Besorgnis über die unbezwingbare Macht der KI entfacht hat, ist vielleicht die Entwicklung der generativen KI seit 2022. In einem Markt, der ab Januar 2025 von fortschrittlicher KI überschwemmt wird, stehen wir an einem Scheideweg, an dem wir uns nicht nur fragen müssen, was real und was ein Hype ist, sondern vor allem, wie kleine und mittlere Unternehmen – und nicht nur die mächtigen und hochkapitalisierten multinationalen Konzerne – wirklich von dem Versprechen der KI als Wettbewerbsvorteil profitieren können. Wir haben gesehen, wie eindeutig KI den Unternehmen helfen kann, ein noch nie dagewesenes Maß an betrieblicher Effizienz zu erreichen, aber die Aktienkurse werden steigen oder fallen, wenn KI-gesteuerte Produktinnovationen es den Unternehmen ermöglichen, den Unternehmenswert zu steigern. Das Timing wird in den nächsten drei Jahren entscheidend sein, um die Sektoren für den nächsten bahnbrechenden Sprung in den KI-Hyperraum um 2030 zu positionieren.
Es gibt zwei tektonische Kräfte, die Unternehmen dazu drängen, fortschrittliche KI einzuführen: die Einführung von generativer KI in das Unternehmen und die Prüfung, ob sie für den Zweck geeignet ist (oder noch nicht), und die Investition in Anwendungen, die von Foundation Models abgeleitet sind.
Hier sind drei einfache Empfehlungen, wenn Sie im Jahr 2025 GenAI in Ihr Unternehmen einführen wollen:
- Generative KI ist nicht intelligent, aber ihre KI-Agenten können vorgeben zu wissen, was sie tun
Gerade als sich einige Unternehmen sicher und ermutigt genug fühlten, Co-Piloten eine Chance zu geben, tauchen generative KI-Agenten als nächste Stufe der Autonomie und zweckgerichteten Automatisierung in generativen Systemen auf. KI-Agenten sind darauf ausgelegt, bestimmte Ziele zu erreichen. Sie sind in der Lage, Handlungen zu verstehen, zu planen und auszuführen, um diese Ziele mit einem autonomen Grad an Unabhängigkeit zu erreichen, indem sie ohne ständige menschliche Intervention Entscheidungen treffen und Maßnahmen ergreifen. Da ihre DNA „generativ“ ist, d. h. sie wollen „um jeden Preis“ eine Leistung erbringen oder ein Ziel erreichen, besteht ihre Schwachstelle (und unsere Herausforderung) darin, ihren Wunsch nach übermäßiger Interaktion einzuschränken – nicht mit den Benutzern, was eine großartige Sache wäre, sondern mit externen Datenquellen, die sie beschaffen/auf die sie zugreifen könnten, ohne dass jemand davon weiß, oder ihre Trägheit, Entscheidungen ohne Rücksprache zu treffen.
Die Herausforderung für Sie als Unternehmer, der KI-Agenten testet, sollte darin bestehen, interne Hierarchien von „Einschränkungen“ zu schaffen, d. h. wie „frei“ Sie diese Agenten sein lassen wollen und wie eingeschränkt sie agieren sollen, bis Ihre Sicherheitsprotokolle angepasst sind.
- Hyperpersonalisierte Kundenerfahrungen mit KI-gesteuerten Chatbots verstehen immer noch nicht die Nuancen, warum Menschen den Kundendienst anrufen
Generative KI ist hervorragend in der Lage, freundliche menschliche Gespräche mit Kunden vorzutäuschen, aber ihre Wahrnehmungsfähigkeiten nehmen ab, wenn Menschen menschliche Emotionen wie Frustration über ein Produkt oder Angst vor der Erkenntnis, dass sie Opfer von Cyberkriminalität sind und ihre Konten gehackt wurden, auflösen müssen. In der Regel handelt es sich bei den häufigsten Anrufen beim Kundendienst um Dinge, die nicht auf einer Website gelöst werden können, um spezifische Situationen, die nicht unbedingt einem Entscheidungsbaum von Optionen folgen, und zunehmend auch um Schwierigkeiten, das auszudrücken, wofür sie Hilfe benötigen, so dass die Aufforderungen – die menschlichen Interaktionen und Fragen an den Bot – von einem KI-System (das im Grunde ein sprachbasiertes System ist und nicht in menschlicher Psychologie geschult wurde) schwer zu interpretieren sind.
Wenn Ihr Unternehmen bereit ist, KI-gesteuerte Chatbots zu testen, sollten Sie in ein Team von Psychologen investieren, das mit den GenAI-Trainern zusammenarbeitet, damit die von Menschen schlecht formulierten Eingabeaufforderungen in eine Taxonomie eingetragen werden können, die Ihrem Unternehmen, seiner Kultur und der Art der einfühlsamen Behandlung, die Sie Ihren Kunden vermitteln möchten, eigen ist. Es ist machbar, aber es erfordert das richtige Team und die richtigen Fähigkeiten der Trainer im Bereich des menschlichen Faktors.
- Automatisierte Inhaltserstellung versus verbesserte kreative Workflows
Generative KI kann verschiedene Formen von Inhalten erstellen, darunter Produktbeschreibungen, Marketingtexte, Artikel und sogar Code, was Zeit und Ressourcen spart, aber es mangelt ihr an Finesse und Qualität, und in vielen Fällen ist leicht erkennbar, dass sie von einer seelenlosen Maschine erstellt wurde. Schlimmer noch, es kann mit Inhalten enden, die vom GenAI-System fabriziert wurden und die Bild- oder Urheberrechte verletzen, weil es das System einfach nicht besser weiß. Eine bessere Option ist die Investition und der Einsatz von KI-Tools, die Kreativteams bei der Ideenfindung, der Erstellung von Variationen bestehender Designs und der Automatisierung sich wiederholender Aufgaben unterstützen können. GenAI ist immer noch ein Ausgabesystem in der Ausbildung und braucht daher einen Meister, jemanden, der weiß, ob die Ausgabe das ist, was wir alle wollen, oder ob sie eine Abweichung ist.
Ihre Aufgabe im Jahr 2025 sollte es sein, Ihre Mitarbeiter KI-affin zu machen, d. h. sie mit der Nutzung möglichst vieler GenAI-Systeme vertraut zu machen und sie sicherer darin zu machen, die Schwächen von GenAI zu erkennen und zu benennen, so dass Sie eigene Systeme mit Ihren eigenen Inhalten für das Training aufbauen können.
Abgesehen von GenAI wird der KI-Markt im Jahr 2025 einen ganz außergewöhnlichen Wettbewerb zwischen den großen KI-Unternehmen und den aufstrebenden Herausforderern darstellen. Hier sind einige der spannendsten Entwicklungen, die Sie verfolgen sollten:
Große Gründungsmodelle versus kleine Gründungsmodelle
Google, OpenAI und Meta sind führend in der Entwicklung von LFMs, um bei künftigen fortgeschrittenen KI-Anwendungen eine Überlegenheit zu erlangen, so dass Microsoft, NVIDIA, Salesforce, Apple und Amazon durch ihre Investitionen in LFMs und/oder ihre schnelle Integration von LFMs in ihre Produktpalette ebenfalls in den Wettbewerb eintreten können. Aufstrebende Akteure wie AWS, Anthropic, Stability AI (Open-Source) und Mistral AI (LFMs mit offenem Gewicht) treten ebenfalls als Herausforderer auf. Der aufregendste Neuzugang in dieser „kostspieligen“ und „energiezehrenden“ Landschaft ist jedoch der Eintritt von Small Foundation Models wie IBMs Granite 3.0 und Herausforderern wie LiquidAI (ein Spin-off des MIT), HuggingFace, AI21Labs und Cohere im Jahr 2025, um nur die Spitze der Pyramide zu nennen.
Die Herausforderungen, mit denen sich die LFMs konfrontiert sehen, stehen im Grunde im Widerspruch zu den Zielen, die Regierungen und Unternehmen anstreben: Energieeffizienz, Nachhaltigkeit und das, wovor sich jedes Unternehmen fürchtet: die Übermittlung geschützter Daten an den LFM-Anbieter zur Schulung, wenn spezielle Aufgaben und deren Anpassung dies erfordern. Die Small Foundation Models können APIs entwickeln, um mit Daten vor Ort zu arbeiten, so dass keine Daten das Haus verlassen. Und weil sie in der Datenverarbeitung kleiner sind, sind sie nachhaltiger und energieeffizienter. Außerdem sind sie unendlich viel erschwinglicher. Der typische Kunde eines Small Foundation Model-Anbieters ist also…. ein kleines oder mittleres Unternehmen, das in der Regel 80-90 % der Industrielandschaft der Industrienationen ausmacht. Beobachten Sie diesen Raum im Jahr 2025.
Fortgeschrittene KI Data Governance ist der einzige Bereich, in dem Unternehmen in der Lage sein werden, die sichere Leistung von KI zu „kontrollieren“.
Data Governance hat sich in der Regel aus regulatorischen Rahmen entwickelt, die auf Urheberrechtsverletzungen und den Schutz privater Aufzeichnungen achten. Bei fortschrittlichen KI-Systemen besteht das Hauptziel darin, zu gewährleisten, dass die Ergebnisse und die Entscheidungen der Agenten, die die Daten interpretieren, korrekt, sicher und vertrauenswürdig sind.
Wenn Sie Ihr Unternehmen im Jahr 2025 darauf vorbereiten wollen, die Kontrolle über seine Daten zu haben, insbesondere wenn Sie die Einführung fortgeschrittener KI-Anwendungen in Erwägung ziehen, müssen Sie sicherstellen, dass alle Daten, die Sie sammeln und aus externen Quellen beziehen, eine eindeutige Herkunft haben, um ihre Qualität zu gewährleisten; zusätzlich zur Datenherkunft müssen Sie ihre Integrität überprüfen, d. h., dass die Daten nicht manipuliert wurden, dass sie vollständig und unversehrt sind und dass sie mit vertrauenswürdigen Tools gesammelt wurden; Letztlich garantieren diese beiden Schritte, dass Sie sich der Wahrhaftigkeit der Daten sicher sein können, denn KI-Systeme können nicht unterscheiden, was wahr und was falsch ist, so dass sie die ihnen zum Training zugeführten Daten immer als „wahr“ annehmen, weshalb die Ergebnisse „halluzinieren“ oder einfach überanpassen (falsche Ergebnisse liefern).
Alle oben genannten Empfehlungen sind ein Sicherheitsnetz für die KI-Sicherheit und ein erster Schritt, um sicherzustellen, dass Ihr Unternehmen im Jahr 2025 eine solide Grundlage hat, um das Potenzial der KI zu nutzen. Es wird ein spannendes Jahr werden.
Dieser Gastbeitrag wurde von Inma Martinez verfasst. Als Regierungsberaterin ist Inma Martinez derzeit Vorsitzende der Multi-Stakeholder-Expertengruppe und Co-Vorsitzende des Lenkungsausschusses der GPAI, der globalen G7/OECD-Agentur für die Entwicklung und Zusammenarbeit im Bereich KI.
Inma Martinez für Vorträge bei der Referenten-Agentur PREMIUM SPEAKERS buchen.