KI einfach erklärt
KI Beispiel im Alltag
Sprachmodell Erklärung
Haben Sie sich schon einmal die Frage gestellt, wie das Smartphone weiß, welche Fotos als "Rückblick" angezeigt werden sollen? Oder wie Netflix genau die Serien vorschlägt, die dann tatsächlich gerne geschaut werden?
Die Antwort lautet: dank künstlicher Intelligenz.
Das ist ein Thema, das zwar täglich in den Medien auftaucht, aber für viele Menschen meist trotzdem ein Buch mit sieben Siegeln bleibt. Was verständlich ist, denn KI ist ein komplexes Feld, das Fachleute meist in einer Sprache erklären, die leider oft nur von anderen Fachleuten verstanden wird. Dabei ist es für alle wichtig, zu verstehen, wie diese Technologie funktioniert.
In diesem Magazinbeitrag erklären wir Ihnen Begriffe wie "Large Language Models", "Tokens" und "Halluzinationen" Schritt für Schritt. Am Ende des Artikels wissen Sie so ganz konkret, wie und wo Sie KI sinnvoll nutzen können.
KI kann wie ein russisches Matroschka-Püppchen betrachtet werden. Die größte Puppe außen ist die "Künstliche Intelligenz". Dies ist ein sehr weiter Begriff für alle Technologien, die versuchen, menschliche Intelligenz nachzuahmen.
Künstliche Intelligenz ist quasi der Oberbegriff für Computersysteme, die Aufgaben erledigen können, die normalerweise menschliche Intelligenz erfordern würden.
Das kann das Erkennen von Gesichtern auf Fotos sein, das Verstehen gesprochener Sprache oder das Spielen von Schach.
Wird die erste Puppe geöffnet, wird Machine Learning (Maschinelles Lernen) gefunden. Das ist eine spezielle Art der KI, bei der Computer nicht programmiert werden, um eine bestimmte Aufgabe zu lösen, sondern lernen, sie zu lösen, indem viele Beispiele angeschaut werden.
Wenn einem Computer beispielsweise beigebracht werden soll, Katzen auf Fotos zu erkennen, wird ihm nicht gesagt, dass eine Katze vier Beine, spitze Ohren und Schnurrhaare hat. Vielmehr werden ihm einfach tausende Fotos von Katzen und tausende Fotos ohne Katzen gezeigt. Der Computer lernt dann selbst, welche Muster typisch für Katzen sind.
In der kleinsten Puppe wiederum finden wir Deep Learning. Das ist eine besondere Form des Machine Learning, die versucht, das menschliche Gehirn nachzuahmen. Unser Gehirn besteht aus Neuronen, die miteinander vernetzt sind.
Deep Learning verwendet hier künstliche neuronale Netzwerke, also mathematische Strukturen, die ähnlich funktionieren.
Die Idee der KI ist nicht neu. Bereits in den 1950er Jahren träumten Wissenschaftler*innen davon, Maschinen zu bauen, die denken können. Doch erst in den letzten Jahren wurde KI wirklich praktisch nutzbar.
Warum? Drei Dinge kamen zusammen:
Large Language Models (LLMs) sind die Stars der aktuellen KI-Welt. ChatGPT, Claude (der vielleicht schon benutzt wurde), Gemini von Google – sie alle basieren auf LLMs. Aber was ist das eigentlich?
Stellen Sie sich eine sehr belesene Freundin vor, der praktisch jedes Buch der Welt gelesen hat und sich an alles erinnern kann. Wenn Sie ihm eine Frage stellen, kann diese nicht nur eine Antwort geben, sondern diese auch in perfektem Deutsch formulieren, ihren Ton an die Situation anpassen und sogar komplexe Zusammenhänge erklären.
Ein LLM ist ähnlich, nur dass keine Bücher gelesen, sondern riesige Mengen an Texten aus dem Internet "verschlungen" wurden. Dabei wurde gelernt, wie Sprache funktioniert, welche Wörter oft zusammen auftreten und wie Gedanken strukturiert ausgedrückt werden.
Hier muss eine wichtige Sache klargestellt werden: LLMs verstehen Sprache nicht so wie Menschen. Wenn das Wort "Hund" gelesen wird, entsteht sofort ein Bild im Kopf, vielleicht vom eigenen Hund oder von einem Hund aus der Kindheit. Es wird gewusst, wie sich Hundefell anfühlt, wie ein Hund riecht, welche Geräusche er macht.
Ein LLM sieht das Wort "Hund" nur als ein Muster, das häufig zusammen mit anderen Wörtern wie "Schwanz", "bellen" oder "Gassi gehen" auftritt.
Durch die Analyse von Millionen von Texten wurde gelernt, dass diese Wörter zusammengehören und deshalb können sinnvolle Sätze über Hunde gebildet werden. Das ist ein bisschen wie eine sehr talentierte Schauspielerin, die eine Rolle perfekt spielt, ohne die Sprache des Stücks wirklich zu verstehen. Das Ergebnis kann trotzdem beeindruckend sein!
ChatGPT (von OpenAI)
ChatGPT war der erste LLM, der wirklich populär wurde. Es ist besonders gut darin, kreative Texte zu schreiben und komplexe Fragen zu beantworten.
Claude (von Anthropic)
Claude gilt als besonders "sicher" und gibt seltener problematische Antworten. Es ist auch sehr gut darin, längere Texte zu analysieren.
Gemini (von Google)
Gemini ist eng mit der Google-Suche verbunden und kann daher oft aktuelle Informationen einbeziehen.
Hier werden wir zwar etwas technischer, aber eine einfache Analogie hilft uns beim Verstehen. Stellen Sie sich jemanden vor, der kein Deutsch spricht und dem ein deutscher Text erklärt werden soll. Der Text würde wahrscheinlich in kleine Stücke zerlegt werden – einzelne Wörter oder sogar Wortteile – und jedes Stück würde einzeln übersetzt werden.
Genau das macht ein LLM mit jedem Text, der erhalten wird. Er wird in kleine Textbausteine, sogenannte "Tokens", zerlegt. Ein Token kann ein ganzes Wort sein ("Hund"), ein Wortteil ("un" und "glaublich" für "unglaublich") oder sogar nur ein einzelner Buchstabe.
Unser Beispielsatz: "Die Katze sitzt auf der Matte."
Ein LLM könnte ihn so in Tokens zerlegen:
"Die" (1 Token)
" Katze" (1 Token, mit Leerzeichen)
" sitzt" (1 Token)
" auf" (1 Token)
" der" (1 Token)
" Matte" (1 Token)
"." (1 Token)
Das sind insgesamt 7 Tokens. Längere oder komplexere Wörter können in mehrere Tokens aufgeteilt werden.
Jedes LLM hat ein "Token-Limit". Das ist eine maximale Anzahl von Tokens, die auf einmal verarbeitet werden können. Wir können uns das wie das Kurzzeitgedächtnis eines Menschen vorstellen, bei dem sich ebenfalls nur eine begrenzte Menge an Informationen gleichzeitig gemerkt werden kann.
Wenn einem LLM ein sehr langer Text gegeben wird oder ein sehr langes Gespräch geführt wird, kann es sein, dass die Informationen vom Anfang "vergessen" werden. Das ist kein Fehler, sondern eine technische Begrenzung.
Praktischer Tipp: Wenn bemerkt wird, dass ein LLM wichtige Informationen aus der Unterhaltung vergessen hat, sollten die wichtigsten Punkte noch einmal zusammengefasst werden.
Stellen Sie sich vor, jemand ist in der Ausbildung zum Meisterkoch. Diese Person würde zahlreiche Rezepte lernen, würde in die besten Restaurants der Welt geschickt und würde beobachten, wie Profis kochen. Nach Jahren der Beobachtung und des Übens könnte er dann nicht nur einzelne Rezepte nachkochen, sondern eigene kreative Gerichte entwickeln.
So ähnlich funktioniert das Training eines LLMs:
Phase 1: Pre-Training (Grundausbildung)
In der ersten Phase werden dem LLM riesige Mengen an Text zum "Lesen" gegeben: Wikipedia- Artikel, Bücher, Nachrichtenseiten, Foren und wissenschaftliche Arbeiten. Hier wird von Milliarden von Seiten Text gesprochen. Das LLM lernt dabei nicht auswendig, sondern erkennt Muster.
Es wird beispielsweise gelernt, dass nach dem Wort "Der" oft ein Substantiv kommt, Fragen meist mit einem Fragezeichen enden und bestimmte Wörter in bestimmten Kontexten vorkommen. Dieser Prozess dauert Monate und kostet Millionen von Euro, weil riesige Rechenzentren gebraucht werden.
Phase 2: Fine-Tuning (Spezialisierung)
Nach der Grundausbildung wird das LLM spezialisiert. Es wird beispielsweise gelernt, wie höflich geantwortet wird, wie komplexe Fragen strukturiert beantwortet werden und wie schädliche oder falsche Antworten vermieden werden. Das ist wie ein Kochazubi, der nach seiner Grundausbildung eine Spezialisierung zum Konditor oder Sous-Chef macht.
Das Training eines großen LLMs kostet oft mehr als 100 Millionen Euro. Warum?
Das ist der Grund, warum nur große Unternehmen wie OpenAI, Google oder Microsoft solche Modelle entwickeln können.
Der Begriff "Halluzination" klingt dramatisch, beschreibt aber ein sehr alltägliches Phänomen: LLMs erfinden manchmal Dinge. Es kann mit großer Überzeugung erzählt werden, dass Napoleon 1823 gestorben ist (er starb 1821), oder ein Zitat zugeschrieben werden, das nie gesagt wurde. Warum passiert das?
Um das zu verstehen, muss daran erinnert werden, wie LLMs funktionieren. Sie sind darauf trainiert, den wahrscheinlichsten nächsten Text zu produzieren.
Hier können Sie sich ein Wortspiel vorstellen, bei dem ein Satz vervollständigt werden soll:
"Der berühmte Wissenschaftler Einstein war bekannt für seine ..."
Wahrscheinlich würde "Relativitätstheorie" geantwortet werden. Das LLM macht dasselbe. Es berechnet, welches Wort am wahrscheinlichsten kommt.
Das Problem: Manchmal ist das wahrscheinlichste Wort nicht das richtige. Oder das LLM "erinnert" sich an ähnliche Informationen und vermischt sie.
Typische Beispiele für KI-Halluzinationen:
Wie KI-Halluzinationen erkannt werden können
1. Bei Fakten immer gegenchecken, besonders bei Zahlen, Daten und Namen.
2. Misstrauen Sie perfekten Antworten, also wenn etwas zu gut klingt, um wahr zu sein.
3. Fragen Sie nach Quellen, denn ein seriöses LLM wird ehrlich sagen, wenn es sich nicht sicher ist.
4. Nutzen Sie mehrere Quellen, um Antworten miteinander zu vergleichen.
Gut formulierte Frage: "Kann das Geburtsjahr von Mozart genannt werden und ist dabei Sicherheit vorhanden?"
Schlecht formulierte Frage: "Erzähl alles über Mozart." (Hier ist die Wahrscheinlichkeit für Halluzinationen höher)
ChatGPT
ChatGPT ist der Pionier und besonders stark in kreativen Texten (Geschichten, Gedichte, Drehbücher), Erklärungen komplexer Themen und Programmierung.
Claude
Claude zeichnet sich aus durch sehr sichere und durchdachte Antworten, eine gute Analyse langer Dokumente und ist besonders hilfreich bei ethisch heiklen Fragen.
Gemini
Gemini punktet mit aktuellen Informationen durch Google-Anbindung, einer guten Integration in Google-Dienste
sowie einer starken Leistung bei Faktenfragen.
Midjourney
Midjourney erstellt kunstvolle, oft surreale Bilder und ist besonders beliebt bei Künstler*innen und Designer*innen, insbesondere für Fantasy- und Sci-Fi-Bilder. Es punktet mit
sehr detailreichen, atmosphärischen Darstellungen.
DALL-E
DALL-E (von OpenAI) kann sehr spezifische Bildanweisungen umsetzen, existierende Bilder bearbeiten
und fotorealistische Bilder erstellen.
Stable Diffusion
Stable Diffusion ist Open Source (kann von jedem genutzt und angepasst werden), läuft auch auf normalen Computern und ist
zusätzlich sehr flexibel.
GitHub Copilot
GitHub Copilot hilft Programmierer*innen dabei, Code automatisch zu vervollständigen, Bugs zu finden und zu reparieren sowie neue Funktionen zu entwickeln.
Es gibt auch KIs, die für sehr spezifische Aufgaben entwickelt wurden:
DeepL: Übersetzt Texte oft besser als Google Translate.
Grammarly: Korrigiert und verbessert englische Texte.
Jasper: Spezialisiert auf Marketing-Texte.
Copy.ai: Hilft bei Werbetexten und Social-Media-Posts.
KI revolutioniert, wie Inhalte erstellt werden:
Blog-Artikel: KI kann dabei helfen, Artikel zu strukturieren, Überschriften zu finden oder ganze Abschnitte zu schreiben. Wichtig: Die menschliche Überprüfung und Anpassungen bleiben unverzichtbar.
Social Media: KI kann Instagram-Posts, Twitter-Tweets oder LinkedIn-Artikel erstellen, die zur Zielgruppe passen.
E-Mail-Marketing: Von Betreffzeilen bis zu personalisierten Newsletter-Inhalten kann KI E-Mail- Kampagnen verbessern.
Werbetexte: KI kann verschiedene Versionen von Anzeigentexten erstellen, die dann getestet werden können.
Moderne KI-Chatbots können:
Der Vorteil: Mitarbeiter*innen haben mehr Zeit für komplexe Fälle, während Routine-Anfragen automatisch bearbeitet werden.
KI kann große Datenmengen analysieren und dabei Muster erkennen, die von Menschen übersehen würden:
Verkaufsprognosen: Welche Produkte werden nächsten Monat besonders nachgefragt?
Kundenverhalten: Welche Kund*innen sind gefährdet, zu einem Konkurrenten zu wechseln?
Preisoptimierung: Welcher Preis maximiert den Gewinn?
Preisoptimierung: Welcher Preis maximiert den Gewinn?
KI verändert auch die Suchmaschinenoptimierung grundlegend. Moderne K- SEO-Tools nutzen KI, um:
Wenn Sie mehr über KI-gestützte SEO bzw. KI in der Content-Erstellung erfahren möchten, schauen Sie auf unserer Landingpage zur AI-SEO-Optimierung vorbei.
KI eröffnet völlig neue Möglichkeiten für Kreativität:
KI für Musik: KI kann Melodien komponieren oder bei der Musikproduktion helfen.
KI im Design: Von Logos bis zu kompletten Website-Layouts.
KI Video Generator: KI kann Videos schneiden, Effekte hinzufügen oder sogar ganze Animationen erstellen.
Bildbearbeitung mit KI: Bildbearbeitung, die früher Stunden dauerte, passiert jetzt in Sekunden.
Was kann künstliche Intelligenz (noch) nicht?
Trotz aller Erfolge gibt es wichtige Dinge, die von KI derzeit nicht geleistet werden können:
Echtes Verständnis: KI kann Texte über Liebe schreiben, aber es wird nicht gewusst, was Liebe wirklich bedeutet.
Kreativität im menschlichen Sinne: KI kann kreative Inhalte erstellen, aber sie basieren immer auf dem, was gelernt wurde. Wirklich revolutionäre, neue Ideen entstehen noch immer in menschlichen Köpfen.
Emotionale Intelligenz: KI kann nicht spüren, wenn ein schlechter Tag erlebt wird (außer es wird explizit gesagt).
Komplexe Entscheidungen: Bei wichtigen Entscheidungen, die ethische, emotionale oder sehr komplexe Faktoren beinhalten, wird noch immer menschliches Urteilsvermögen gebraucht.
Datenschutz: KI-Systeme lernen aus Daten. Aber was passiert mit persönlichen Informationen? Seriöse Anbieter*innen anonymisieren Daten und löschen Unterhaltungen, aber es ist wichtig, das zu überprüfen.
Transparenz: Oft ist nicht klar, warum eine KI eine bestimmte Entscheidung getroffen hat. Das kann problematisch sein, besonders bei wichtigen Entscheidungen.
Arbeitsplätze: Wird KI Jobs vernichten? Die Antwort ist nuanciert: Manche Jobs werden verschwinden, andere werden sich verändern, und neue Jobs werden entstehen.
Bias und Fairness
KI-Systeme können Vorurteile haben, weil aus Daten gelernt wird, die von Menschen stammen – und Menschen haben Vorurteile. Wenn ein KI-System beispielsweise hauptsächlich mit Daten von männlichen Führungskräften trainiert wurde, könnten bei der Personalauswahl Männer bevorzugt werden. In der KI-Industrie wird hart daran gearbeitet, solche Probleme zu lösen, aber es bleibt eine Herausforderung.
Kurzfristig (1-2 Jahre):
Mittelfristig (3-5 Jahre):
Langfristig (5+ Jahre):
So erzielen Sie bessere Ergebnisse:
Spezifisch sein: Anstatt "Schreib einen Text" sollte gesagt werden "Schreib einen 300-Wörter-Blog- Post über die Vorteile von Online-Shopping für Senioren".
Kontext geben: "Es wird ein kleines Elektronikgeschäft geführt und ..." hilft der KI, passendere Antworten zu geben.
Iterieren: Wenn das erste Ergebnis nicht perfekt ist, sollte konkret gesagt werden, was geändert werden soll: "Das ist gut, aber kann es etwas formeller geschrieben werden?"
Beispiele nutzen: "Schreib es im Stil dieses Beispiels ..." funktioniert oft sehr gut.
DO:
DON'T:
Der Mythos: KI wird in wenigen Jahren alle menschlichen Arbeitsplätze überflüssig machen.
Die Realität: KI wird viele Jobs verändern, aber nicht automatisch vernichten. Historisch gesehen hat Technologie immer neue Jobs geschaffen, während andere obsolet wurden. Denken Sie z. B. an die Erfindung des Computers, im Zuge derer völlig neue Berufszweige wie Webdesigner oder Social Media Manager entstanden sind.
Was wirklich passiert: Menschen, die KI nutzen können, werden einen Vorteil gegenüber denen haben, die es nicht können. Es ist wie mit dem Computer in den 1990ern: Wer ihn nutzen konnte, hatte bessere Chancen.
Der Mythos: Computer machen keine Fehler, also müssen KI-Antworten immer richtig sein.
Die Realität: KI macht viele Fehler! Sie halluziniert, hat veraltete Informationen und kann Dinge missverstehen. KI ist ein Werkzeug, das Fehler macht – genau wie ein Hammer manchmal den Nagel verfehlt.
Praktische Konsequenz: KI sollte wie ein sehr kluger, aber manchmal unzuverlässiger Mensch genutzt werden. Wichtige Informationen sollten immer überprüft werden.
Der Mythos: Wenn KI so klug antworten kann, muss die Welt genau so verstanden werden wie von Menschen.
Die Realität: KI ist unglaublich gut darin, menschliche Sprache zu imitieren, aber sie "versteht" nicht in dem Sinne, wie Menschen verstehen. Wenn einer KI vom Lieblingskuchen erzählt, kann darüber gesprochen werden, aber es wird nicht gewusst, wie der Kuchen schmeckt oder riecht.
Warum das wichtig ist: Es hilft, realistische Erwartungen zu haben und KI für die richtigen Aufgaben zu nutzen.
Der Mythos: KI ist nur ein Hype, der bald wieder verschwindet.
Die Realität: KI-Forschung gibt es seit den 1950ern, aber erst jetzt sind Computer und Daten gut genug, um sie praktisch nutzbar zu machen. Die aktuellen Durchbrüche sind das Ergebnis jahrzehntelanger Arbeit.
Trends deuten darauf hin: Immer mehr Unternehmen investieren Milliarden in KI, und die Technologie wird kontinuierlich besser. KI ist gekommen, um zu bleiben.
Die wichtigsten Erkenntnisse
Nach dieser ausführlichen Reise durch die Welt der KI sollte nun folgendes verstanden werden: KI ist ein Werkzeug, nicht Magie. Es ist sehr mächtig, aber auch fehlbar und hat klare Grenzen. LLMs sind Mustererkennungsmaschinen, die durch das Analysieren riesiger Textmengen gelernt haben, menschliche Sprache zu imitieren. Tokens hingegen sind die Art, wie KI Text versteht – durch Zerlegen in kleine Bausteine. Halluzinationen sind normal und passieren, weil KI Wahrscheinlichkeiten berechnet, nicht Wahrheit. Training ist aufwendig und teuer, weshalb nur wenige Unternehmen große KI-Modelle entwickeln können.
KI hat verschiedene Ausprägungen – von Text über Bilder bis hin zu spezialisierten Anwendungen. Praktische Anwendungen gibt es bereits heute in fast jeder Branche. Grenzen existieren, besonders bei Kreativität, emotionaler Intelligenz und komplexen ethischen Entscheidungen.
Die nächsten Schritte
KI wird die Arbeitsweise weiter verändern, aber Menschen werden nicht ersetzt. Stattdessen entstehen neue Formen der Zusammenarbeit zwischen Mensch und Maschine. Die erfolgreichsten Unternehmen werden die sein, die diese Synergie optimal nutzen. Vor 20 Jahren erschien das Internet revolutionär, heute ist es selbstverständlich. Mit KI wird es ähnlich sein. Was heute noch aufregend und neu erscheint, wird morgen ein normaler Teil des Arbeitsalltags sein. Darum gilt vor allem eines: neugierig bleiben!
KI ist ein faszinierendes Feld, das sich ständig weiterentwickelt. Das Wichtigste ist, offen für neue Möglichkeiten zu sein. Die KI-Revolution hat gerade erst begonnen – und jetzt ist die beste Zeit, um Teil davon zu werden.
Sie haben Fragen?
Wir beraten Sie gerne!