banner
Nachrichtenzentrum
Umfangreiches Wissen in Vertrieb und Produktion

Zeitalter der KI: Alles, was Sie über künstliche Intelligenz wissen müssen

Sep 23, 2023

KI taucht scheinbar in jedem Bereich des modernen Lebens auf, von Musik und Medien über Wirtschaft und Produktivität bis hin zum Dating. Es gibt so viel, dass es schwierig sein kann, Schritt zu halten – lesen Sie also weiter, um alles zu erfahren, von den neuesten großen Entwicklungen bis hin zu den Begriffen und Unternehmen, die Sie kennen müssen, um in diesem schnelllebigen Bereich auf dem Laufenden zu bleiben.

Stellen wir zunächst einmal sicher, dass wir uns alle einig sind: Was ist KI?

Künstliche Intelligenz, auch maschinelles Lernen genannt, ist eine Art Softwaresystem, das auf neuronalen Netzen basiert, eine Technik, die eigentlich schon vor Jahrzehnten entwickelt wurde, sich aber in jüngster Zeit dank leistungsstarker neuer Rechenressourcen zu großer Blüte entwickelt hat. KI hat eine effektive Sprach- und Bilderkennung sowie die Fähigkeit ermöglicht, synthetische Bilder und Sprache zu erzeugen. Und Forscher arbeiten hart daran, einer KI das Surfen im Internet, das Buchen von Tickets, das Optimieren von Rezepten und vieles mehr zu ermöglichen.

Oh, aber wenn Sie sich Sorgen über einen Matrix-ähnlichen Aufstieg der Maschinen machen, müssen Sie das nicht tun. Darüber reden wir später!

Unser Leitfaden zur KI besteht aus drei Hauptteilen, die wir regelmäßig aktualisieren und die in beliebiger Reihenfolge gelesen werden können:

Am Ende dieses Artikels sind Sie in etwa so auf dem neuesten Stand, wie man es sich heutzutage nur wünschen kann. Wir werden es auch aktualisieren und erweitern, während wir weiter in das Zeitalter der KI vordringen.

Bildnachweis:Andrii Shyp / Getty Images

Eines der verrückten Dinge an der KI ist, dass die Kernkonzepte zwar mehr als 50 Jahre zurückreichen, aber nur wenige davon auch nur technisch versierten Menschen vor Kurzem bekannt waren. Wenn Sie sich also verloren fühlen, machen Sie sich keine Sorgen – das geht jedem so.

Und eines möchten wir gleich vorweg klarstellen: Obwohl man es „künstliche Intelligenz“ nennt, ist dieser Begriff etwas irreführend. Es gibt keine einheitliche Definition von Intelligenz, aber was diese Systeme tun, ähnelt definitiv eher Taschenrechnern als Gehirnen. Die Ein- und Ausgabe dieses Rechners ist einfach viel flexibler. Man könnte sich künstliche Intelligenz wie eine künstliche Kokosnuss vorstellen – es handelt sich um eine imitierte Intelligenz.

Vor diesem Hintergrund finden Sie hier die Grundbegriffe, die Sie in jeder Diskussion über KI finden.

Unser Gehirn besteht größtenteils aus miteinander verbundenen Zellen, sogenannten Neuronen, die zu komplexen Netzwerken zusammenwirken, die Aufgaben ausführen und Informationen speichern. Seit den 60er Jahren wird versucht, dieses erstaunliche System in Software nachzubilden, aber die erforderliche Rechenleistung war erst vor 15 bis 20 Jahren allgemein verfügbar, als GPUs den Aufschwung digital definierter neuronaler Netze ermöglichten. Im Kern bestehen sie nur aus vielen Punkten und Linien: Die Punkte sind Daten und die Linien sind statistische Beziehungen zwischen diesen Werten. Wie im Gehirn kann dadurch ein vielseitiges System entstehen, das schnell eine Eingabe aufnimmt, sie durch das Netzwerk weiterleitet und eine Ausgabe erzeugt. Dieses System wird Modell genannt.

Das Modell ist die eigentliche Codesammlung, die Eingaben akzeptiert und Ausgaben zurückgibt. Die Ähnlichkeit der Terminologie mit einem statistischen Modell oder einem Modellsystem, das einen komplexen natürlichen Prozess simuliert, ist kein Zufall. In der KI kann sich das Modell auf ein komplettes System wie ChatGPT oder so ziemlich jedes KI- oder maschinelle Lernkonstrukt beziehen, was auch immer es tut oder produziert. Modelle gibt es in verschiedenen Größen, was sowohl den Speicherplatzbedarf als auch die Rechenleistung für den Betrieb betrifft. Und diese hängen davon ab, wie das Modell trainiert wird.

Um ein KI-Modell zu erstellen, werden die neuronalen Netze, die die Basis des Systems bilden, mit einer Reihe von Informationen in einem sogenannten Datensatz oder Korpus konfrontiert. Auf diese Weise erstellen diese riesigen Netzwerke eine statistische Darstellung dieser Daten. Dieser Trainingsprozess ist der rechenintensivste Teil, was bedeutet, dass er Wochen oder Monate (Sie können so lange dauern, wie Sie möchten) auf riesigen Mengen leistungsstarker Computer dauert. Der Grund dafür ist, dass nicht nur die Netzwerke komplex sind, sondern auch die Datensätze extrem groß sein können: Milliarden von Wörtern oder Bildern, die analysiert und im riesigen statistischen Modell dargestellt werden müssen. Sobald das Modell jedoch mit dem Kochen fertig ist, kann es viel kleiner und weniger anspruchsvoll sein, wenn es verwendet wird, ein Prozess, der als Inferenz bezeichnet wird.

Bildnachweis:Google

Wenn das Modell tatsächlich seine Aufgabe erfüllt, nennen wir dies Inferenz, ganz im traditionellen Sinne des Wortes: eine Schlussfolgerung ziehen, indem wir über verfügbare Beweise nachdenken. Natürlich handelt es sich dabei nicht wirklich um „Argumentation“, sondern darum, die Punkte in den erfassten Daten statistisch zu verknüpfen und tatsächlich den nächsten Punkt vorherzusagen. Wenn Sie beispielsweise sagen: „Vervollständigen Sie die folgende Sequenz: Rot, Orange, Gelb …“, würde es feststellen, dass diese Wörter dem Anfang einer Liste entsprechen, die es aufgenommen hat, den Farben des Regenbogens, und auf das nächste Element schließen, bis es das erzeugt hat Rest dieser Liste. Inferenz ist im Allgemeinen viel weniger rechenintensiv als Training: Stellen Sie sich das so vor, als würden Sie einen Zettelkatalog durchsehen, anstatt ihn zusammenzustellen. Große Modelle müssen immer noch auf Supercomputern und GPUs laufen, kleinere Modelle können jedoch auf einem Smartphone oder etwas noch einfacherem laufen.

Alle reden von generativer KI, und dieser weit gefasste Begriff bezeichnet lediglich ein KI-Modell, das eine Originalausgabe wie ein Bild oder einen Text erzeugt. Manche KIs fassen zusammen, manche reorganisieren, manche identifizieren und so weiter – aber eine KI, die tatsächlich etwas erzeugt (ob sie „erschafft“ oder nicht, darüber lässt sich streiten), ist derzeit besonders beliebt. Denken Sie daran: Nur weil eine KI etwas generiert hat, bedeutet das nicht, dass es korrekt ist oder dass es überhaupt die Realität widerspiegelt! Nur, dass es nicht existierte, bevor man danach gefragt hat, wie eine Geschichte oder ein Gemälde.

Der große Prätendent

Über die Grundlagen hinaus finden Sie hier die KI-Begriffe, die hier Mitte 2023 am relevantesten sind.

Als einflussreichste und vielseitigste Form der KI, die heute verfügbar ist, werden große Sprachmodelle auf praktisch alle Texte im Internet und einen Großteil der englischen Literatur trainiert. Die Aufnahme all dessen führt zu einem Fundamentmodell (lesen Sie weiter) von enormer Größe. LLMs sind in der Lage, sich in natürlicher Sprache zu unterhalten und Fragen zu beantworten und eine Vielzahl von Stilen und Arten schriftlicher Dokumente zu imitieren, wie etwa ChatGPT, Claude und LLaMa demonstrieren. Obwohl diese Modelle unbestreitbar beeindruckend sind, muss man bedenken, dass es sich immer noch um Mustererkennungsmaschinen handelt, und wenn sie antworten, handelt es sich um einen Versuch, ein identifiziertes Muster zu vervollständigen, unabhängig davon, ob dieses Muster die Realität widerspiegelt oder nicht. LLMs halluzinieren häufig in ihren Antworten, worauf wir gleich noch eingehen werden.

Wenn Sie mehr über LLMs und ChatGPT erfahren möchten, haben wir einen separaten Artikel dazu!

Das Training eines riesigen Modells von Grund auf anhand riesiger Datenmengen ist kostspielig und komplex, und Sie möchten es daher nicht öfter tun, als nötig ist. Foundation-Modelle sind die großen, von Grund auf neu entwickelten Modelle, für deren Betrieb Supercomputer erforderlich sind. Sie können jedoch verkleinert werden, um in kleinere Container zu passen, normalerweise durch Reduzierung der Anzahl der Parameter. Sie können sich das als die Gesamtzahl der Punkte vorstellen, mit denen das Modell arbeiten muss, und heutzutage können es Millionen, Milliarden oder sogar Billionen sein.

Ein Grundlagenmodell wie GPT-4 ist intelligent, aber auch von Natur aus generalistisch – es hat alles von Dickens über Wittgenstein bis hin zu den Regeln von Dungeons & Dragons absorbiert, aber nichts davon ist hilfreich, wenn Sie es beim Verfassen eines Anschreibens unterstützen möchten für Ihren Lebenslauf. Glücklicherweise kann eine Feinabstimmung von Modellen erfolgen, indem man sie mithilfe eines speziellen Datensatzes, beispielsweise einiger Tausend herumliegender Bewerbungen, ein wenig zusätzlich trainiert. Dies gibt dem Modell ein viel besseres Gespür dafür, wie es Ihnen in diesem Bereich helfen kann, ohne das allgemeine Wissen zu verwerfen, das es aus den restlichen Trainingsdaten gesammelt hat.

Reinforcement Learning from Human Feedback (RLHF) ist eine besondere Art der Feinabstimmung, von der Sie oft hören werden – sie nutzt Daten von Menschen, die mit dem LLM interagieren, um seine Kommunikationsfähigkeiten zu verbessern.

In einem Artikel über eine fortschrittliche Postdiffusionstechnik können Sie sehen, wie ein Bild selbst aus sehr verrauschten Daten reproduziert werden kann.

Die Bilderzeugung kann auf vielfältige Weise erfolgen, aber die mit Abstand erfolgreichste ist derzeit die Diffusion, die Kerntechnik von Stable Diffusion, Midjourney und anderen beliebten generativen KIs. Diffusionsmodelle werden trainiert, indem ihnen Bilder gezeigt werden, die durch Hinzufügen von digitalem Rauschen schrittweise verschlechtert werden, bis vom Original nichts mehr übrig ist. Indem sie dies beobachten, lernen Diffusionsmodelle, den Prozess auch umgekehrt durchzuführen und dem reinen Rauschen nach und nach Details hinzuzufügen, um ein willkürlich definiertes Bild zu erzeugen. Bei Bildern fangen wir bereits an, darüber hinauszugehen, aber die Technik ist zuverlässig und relativ gut verstanden, also erwarten Sie nicht, dass sie in absehbarer Zeit verschwinden wird.

Ursprünglich handelte es sich dabei um ein Problem, bei dem bestimmte Bilder im Training in irrelevante Ergebnisse übergingen, wie zum Beispiel Gebäude, die aus Hunden zu bestehen schienen, weil Hunde im Trainingsset zu häufig vorkamen. Nun sagt man, dass eine KI halluziniert, wenn sie sich einfach etwas ausdenkt, weil sie nicht genügend oder widersprüchliche Daten in ihrem Trainingssatz hat.

Dabei kann es sich entweder um einen Vermögenswert oder eine Verbindlichkeit handeln; Eine KI, die gebeten wird, originelle oder sogar abgeleitete Kunst zu schaffen, halluziniert ihre Ergebnisse. Man kann einem LLM sagen, dass er ein Liebesgedicht im Stil von Yogi Berra schreiben soll, und er wird dies gerne tun – obwohl so etwas nirgendwo in seinem Datensatz vorkommt. Aber es kann ein Problem sein, wenn eine sachliche Antwort gewünscht wird; Modelle werden selbstbewusst eine Reaktion präsentieren, die halb real, halb halluzinatorisch ist. Derzeit gibt es keine einfache Möglichkeit, herauszufinden, welches welches ist, außer es selbst zu überprüfen, da das Modell selbst nicht wirklich weiß, was „wahr“ oder „falsch“ ist, sondern nur versucht, ein Muster so gut wie möglich zu vervollständigen.

Künstliche allgemeine Intelligenz oder starke KI ist kein wirklich klar definiertes Konzept, aber die einfachste Erklärung ist, dass es sich um eine Intelligenz handelt, die nicht nur mächtig genug ist, um das zu tun, was Menschen tun, sondern auch zu lernen und sich selbst zu verbessern, so wie wir es tun. Einige befürchten, dass dieser Zyklus des Lernens, der Integration dieser Ideen und des anschließenden Lernens und des schnelleren Wachstums ein sich selbst aufrechterhaltender Zyklus sein wird, der zu einem superintelligenten System führt, das weder einzudämmen noch zu kontrollieren ist. Einige haben sogar vorgeschlagen, die Forschung zu verzögern oder einzuschränken, um dieser Möglichkeit vorzubeugen.

Das ist gewiss eine beängstigende Vorstellung, und in Filmen wie „Matrix“ und „Terminator“ wurde untersucht, was passieren könnte, wenn die KI außer Kontrolle gerät und versucht, die Menschheit zu eliminieren oder zu versklaven. Aber diese Geschichten basieren nicht auf der Realität. Das Auftreten von Intelligenz, das wir in Dingen wie ChatGPT sehen, ist ein beeindruckender Akt, hat jedoch wenig mit dem abstrakten Denken und der dynamischen Multi-Domain-Aktivität zu tun, die wir mit „echter“ Intelligenz assoziieren. Obwohl es nahezu unmöglich ist, vorherzusagen, wie sich die Dinge entwickeln werden, kann es hilfreich sein, sich AGI als etwas wie interstellare Raumfahrt vorzustellen: Wir alle verstehen das Konzept und arbeiten scheinbar darauf hin, aber gleichzeitig sind wir unglaublich weit davon entfernt so etwas zu erreichen. Und aufgrund der immensen Ressourcen und grundlegenden wissenschaftlichen Fortschritte, die dafür erforderlich sind, wird es niemandem plötzlich durch Zufall gelingen!

Es ist interessant, über AGI nachzudenken, aber es macht keinen Sinn, sich Ärger zu leihen, wenn KI, wie Kommentatoren betonen, trotz und größtenteils aufgrund ihrer Einschränkungen bereits heute echte und folgenreiche Bedrohungen darstellt. Niemand will Skynet, aber man braucht keine Superintelligenz, die mit Atomwaffen bewaffnet ist, um echten Schaden anzurichten: Heutzutage verlieren Menschen ihren Arbeitsplatz und fallen auf Falschmeldungen herein. Wenn wir diese Probleme nicht lösen können, welche Chance haben wir dann gegen einen T-1000?

Ethiker erwidern den „KI-Pause“-Brief, von dem sie behaupten, er „ignoriere die tatsächlichen Schäden“

Bildnachweis:Leon Neal / Getty Images

Wenn es in der KI einen bekannten Namen gibt, dann ist es dieser. OpenAI begann, wie der Name schon sagt, als Organisation mit der Absicht, Forschung durchzuführen und die Ergebnisse mehr oder weniger offen zur Verfügung zu stellen. Seitdem hat es sich zu einem traditionelleren, gewinnorientierten Unternehmen umstrukturiert, das über APIs und Apps Zugriff auf seine fortschrittlichen Sprachmodelle wie ChatGPT bietet. An der Spitze steht Sam Altman, ein technotopischer Milliardär, der dennoch vor den Risiken gewarnt hat, die KI mit sich bringen könnte. OpenAI ist der anerkannte Marktführer im LLM-Bereich, betreibt aber auch Forschung in anderen Bereichen.

Wie zu erwarten ist, hat Microsoft zwar viel Arbeit in der KI-Forschung geleistet, aber wie andere Unternehmen ist es ihm mehr oder weniger nicht gelungen, seine Experimente in große Produkte umzusetzen. Der klügste Schachzug bestand darin, frühzeitig in OpenAI zu investieren, was ihm eine exklusive langfristige Partnerschaft mit dem Unternehmen einbrachte, das nun seinen Bing-Konversationsagenten antreibt. Obwohl die eigenen Beiträge kleiner und weniger unmittelbar anwendbar sind, verfügt das Unternehmen über eine beträchtliche Forschungspräsenz.

Google, das für seine Mondschüsse bekannt ist, hat bei der KI irgendwie den Anschluss verpasst, obwohl seine Forscher buchstäblich die Technik erfunden haben, die direkt zur heutigen KI-Explosion geführt hat: den Transformator. Jetzt arbeitet das Unternehmen hart an seinen eigenen LLMs und anderen Agenten, muss aber eindeutig aufholen, nachdem es im letzten Jahrzehnt den Großteil seiner Zeit und seines Geldes darauf verwendet hat, das veraltete Konzept des „virtuellen Assistenten“ der KI voranzutreiben. CEO Sundar Pichai hat wiederholt erklärt, dass sich das Unternehmen bei Suche und Produktivität fest hinter KI ausrichtet.

Nachdem sich OpenAI von der Offenheit abgewendet hatte, verließen die Geschwister Dario und Daniela Amodei das Unternehmen, um Anthropic zu gründen, das die Rolle einer offenen und ethisch rücksichtsvollen KI-Forschungsorganisation übernehmen sollte. Mit der Menge an Bargeld, die sie zur Verfügung haben, sind sie ein ernstzunehmender Konkurrent von OpenAI, auch wenn ihre Modelle, wie Claude, noch nicht so beliebt oder bekannt sind.

Bildnachweis:Bryce Durbin / TechCrunch

Umstritten, aber unvermeidlich, stellt Stability die Open-Source-Schule der KI-Implementierung dar, die „Tu, was du willst“, indem sie alles im Internet aufsaugt und die generativen KI-Modelle, die sie trainiert, frei verfügbar macht, wenn man über die Hardware verfügt, sie auszuführen. Dies steht im Einklang mit der „Information will frei sein“-Philosophie, hat aber auch ethisch fragwürdige Projekte wie die Generierung pornografischer Bilder und die Nutzung geistigen Eigentums ohne Zustimmung (manchmal gleichzeitig) beschleunigt.

Musk, der nicht außen vor gelassen werden sollte, äußerte sich offen zu seinen Befürchtungen hinsichtlich einer außer Kontrolle geratenen KI, aber auch zu einigen schlechten Kritikpunkten, nachdem er schon früh zu OpenAI beigetragen hatte und es in eine Richtung ging, die ihm nicht gefiel. Obwohl Musk kein Experte auf diesem Gebiet ist, rufen seine Eskapaden und Kommentare wie immer breite Resonanz hervor (er war Unterzeichner des oben erwähnten „KI-Pause“-Briefes) und er versucht, ein eigenes Forschungsunternehmen zu gründen.

Der GPU-Hersteller Nvidia verkaufte sich gut an Gamer und Kryptowährungs-Miner, aber die KI-Branche steigerte die Nachfrage nach seiner Hardware auf Hochtouren. Das Unternehmen hat dies geschickt ausgenutzt und neulich die symbolische (aber deutliche) Billionen-Dollar-Marktkapitalisierung durchbrochen, als seine Aktie 413 US-Dollar erreichte. Sie zeigen keine Anzeichen einer Verlangsamung, wie sie kürzlich auf der Computex zeigten …

Unter einem Dutzend oder zwei Ankündigungen auf der Computex in Taipeh sprach Jensen Huang, CEO von Nvidia, über den Grace Hopper-Superchip des Unternehmens für beschleunigtes Computing (so ihre Terminologie) und demonstrierte generative KI, von der behauptet wurde, sie könne jeden zum Entwickler machen.

Altman beriet kürzlich die US-Regierung zur KI-Politik, obwohl einige darin den Eindruck erweckten, dass der Fuchs die Regeln im Hühnerstall bestimmen würde. Auch die verschiedenen Regulierungsgremien der EU sind auf der Suche nach Input, und Altman hat eine große Tournee unternommen und gleichzeitig vor übermäßiger Regulierung und den Gefahren einer uneingeschränkten KI gewarnt. Wenn Ihnen diese Perspektiven zu widersprechen scheinen, machen Sie sich keine Sorgen, Sie sind nicht der Einzige.

Wir haben ihnen diese Neuigkeit irgendwie verdorben, als wir Details zu dieser Spendenaktion veröffentlichten und im Voraus planten, aber Anthropic ist jetzt offiziell um 450 Millionen US-Dollar reicher und arbeitet hart am Nachfolger von Claude und seinen anderen Modellen. Es ist klar, dass der KI-Markt groß genug ist, dass an der Spitze Platz für einige große Anbieter ist – sofern sie über das nötige Kapital verfügen, um dorthin zu gelangen.

Die Video-Social-Networking-Plattform Tiktok testet eine neue Konversations-KI, mit der Sie Fragen zu allem stellen können, was Sie möchten, einschließlich dem, was Sie gerade ansehen. Die Idee ist, anstatt einfach nach weiteren „Husky-Heul“-Videos zu suchen, Sie könnten Tako fragen: „Warum heulen Huskys so viel?“ und es wird eine nützliche Antwort geben und Sie auf weitere Inhalte hinweisen, die Sie sich ansehen können.

Nachdem Microsoft Hunderte Millionen in OpenAI investiert hat, ist es fest entschlossen, seinen Nutzen zu erzielen. Es hat GPT-4 bereits in seine Bing-Suchplattform integriert, aber jetzt wird das Bing-Chat-Erlebnis auf jedem Windows 11-Computer über eine Leiste auf der rechten Seite des Betriebssystems verfügbar – wahrscheinlich sogar unvermeidlich – sein.

Google holt in der KI-Welt auf, und obwohl es beträchtliche Ressourcen dafür aufwendet, ist seine Strategie noch etwas unklar. Ein typisches Beispiel: Die I/O 2023-Veranstaltung war voller experimenteller Features, die möglicherweise nie einem breiten Publikum zugänglich gemacht werden. Aber sie machen auf jeden Fall eine komplette Gerichtspresse, um wieder ins Spiel zu kommen.

Erstes nächstes und letztes Bildnachweis: Bildnachweis: Bildnachweis: Bildnachweis: