Ursprünglicher Autor: Edward Zitron
Originalübersetzung: Block Einhorn
Wenn Sie sich mit KI in der Kryptoindustrie oder KI im traditionellen Internet beschäftigen, müssen Sie ernsthaft über die Zukunft dieser Branche nachdenken. Der Artikel ist ziemlich lang. Wenn Sie keine Geduld haben, können Sie ihn sofort verlassen.
Was ich in diesem Artikel schreibe, soll weder Skepsis noch Hetze verbreiten, sondern eine nüchterne Einschätzung darüber liefern, wo wir heute stehen und wohin uns unser aktueller Weg führen könnte. Ich glaube, dass der KI-Boom – genauer gesagt der Boom der generativen KI – (wie ich bereits zuvor argumentiert habe) nicht nachhaltig ist und irgendwann zusammenbrechen wird. Ich befürchte auch, dass dieser Zusammenbruch für Big Tech verheerend sein könnte, das Startup-Ökosystem schwer schädigen und die öffentliche Unterstützung für die Technologiebranche weiter untergraben könnte.
Ich schreibe dies heute, weil es sich anfühlt, als würde sich die Landschaft schnell ändern, und es gibt bereits mehrere Anzeichen einer „Apokalypse“ der KI: Das (übereilt) eingeführte Modell „o1 (Codename: Strawberry)“ von OpenAI wird als „großer, dummer Zaubertrick“ (eine falsche Illusion) bezeichnet; Gerüchte über Preiserhöhungen für zukünftige Modelle bei OpenAI (und anderswo); Entlassungen bei Scale AI; und Abgänge der Führungsriege von OpenAI. Dies alles sind Anzeichen dafür, dass die Dinge anfangen, auseinanderzufallen.
Deshalb hielt ich es für notwendig, die Krise der aktuellen Situation zu erklären und zu erklären, warum wir uns in einer Phase der Desillusionierung befinden. Ich wollte meine Besorgnis über die Fragilität der Bewegung und die Besessenheit und Orientierungslosigkeit zum Ausdruck bringen, die uns an diesen Punkt gebracht hat, und ich hoffe, dass einige Leute das besser können.
Darüber hinaus – und das ist vielleicht ein Punkt, dem ich bisher nicht genügend Aufmerksamkeit geschenkt habe – möchte ich die menschlichen Kosten einer platzenden KI-Blase hervorheben. Ob Microsoft und Google (und andere große Unterstützer generativer KI) ihre Investitionen allmählich drosseln oder ob OpenAI und Anthropic (und ihre eigenen generativen KI-Projekte) durch die Verschwendung von Unternehmensressourcen aufrechterhalten werden, ich glaube, das Endergebnis wird dasselbe sein. Ich befürchte, dass Tausende von Menschen ihren Arbeitsplatz verlieren werden und große Teile der Technologiebranche erkennen werden, dass das einzige, was ewig wachsen kann, Krebs ist.
In diesem Beitrag wird es nicht viel Heiterkeit geben. Ich werde Ihnen ein düsteres Bild zeichnen – nicht nur von den großen KI-Playern, sondern von der gesamten Tech-Industrie und ihren Mitarbeitern – und Ihnen sagen, warum ich glaube, dass das chaotische und zerstörerische Ende schneller kommt, als Sie denken.
Machen Sie weiter und wechseln Sie in den Denkmodus.
Wie überlebt generative KI?
Derzeit befindet sich OpenAI – eine nominell gemeinnützige Organisation, die bald gewinnorientiert werden könnte – dabei, eine neue Finanzierungsrunde mit einer Bewertung von mindestens 100 Billionen TP150 zu finanzieren, wobei 100 Billionen TP6,5 Milliarden und möglicherweise sogar 100 Billionen TP7 Milliarden geschätzt werden. Die Runde wird von Josh Kushners Thrive Capital geleitet, und Gerüchten zufolge könnten sich auch NVIDIA und Apple beteiligen. Wie ich bereits ausführlich dargelegt habe, muss OpenAI weiterhin beispiellose Summen aufbringen, um zu überleben.
Um die Sache noch schlimmer zu machen, versucht OpenAI laut Bloomberg auch, $5 Milliarden Schulden bei Banken in Form einer revolvierenden Kreditlinie aufzunehmen, was typischerweise mit höheren Zinssätzen verbunden ist.
Die Information berichtete auch, dass OpenAI befindet sich in Gesprächen mit MGX, einem von den VAE unterstützten $100-Milliarden-Investmentfonds, der in KI- und Halbleiterunternehmen investieren möchte und möglicherweise auch Mittel von der Abu Dhabi Investment Authority (ADIA) aufnimmt. Dies ist ein äußerst ernstes Warnsignal, da niemand freiwillig Geld von den VAE oder Saudi-Arabien anfordert. Sie bitten sie nur dann um Hilfe, wenn Sie viel Geld benötigen und nicht sicher sind, ob Sie es woanders bekommen können.
Randbemerkung: Wie CNBC anmerkt, hält einer der Gründungspartner von MGX, Mubadala, etwa $500 Millionen Eigenkapital in Anthropic, das aus den FTX-Konkursvermögen erworben wurde. Man kann sich vorstellen, wie „glücklich“ Amazon und Google über diesen Interessenkonflikt sein müssen!
Wie ich Ende Juli erörterte, muss OpenAI mindestens $3 Milliarden, wahrscheinlicher $10 Milliarden, aufbringen, um über Wasser zu bleiben. Das Unternehmen rechnet damit, im Jahr 2024 $5 Milliarden zu verlieren, eine Zahl, die wahrscheinlich weiter steigen wird, da komplexere Modelle mehr Rechenressourcen und Trainingsdaten benötigen. Anthropic-CEO Dario Amodei hat vorausgesagt, dass zukünftige Modelle bis zu $100 Milliarden an Trainingskosten erfordern könnten.
Übrigens bezieht sich die „Bewertung von $150 Milliarden“ hier auf die Art und Weise, wie OpenAI seine Aktien für Investoren bewertet – obwohl das Wort „Aktien“ auch hier etwas vage ist. Wenn Sie beispielsweise bei einem normalen Unternehmen $1,5 Milliarden bei einer Bewertung von $150 Milliarden investieren, erhalten Sie normalerweise „1%“ des Unternehmens, aber im Fall von OpenAI sind die Dinge etwas komplizierter.
OpenAI versuchte Anfang des Jahres, bei einer Bewertung von $100 Milliarden Geld einzusammeln, doch einige Investoren schreckten vor dem hohen Preis zurück, teilweise aufgrund (um die Information-Reporterinnen Kate Clark und Natasha Mascarenhas zu zitieren) wachsender Bedenken, dass Unternehmen im Bereich generative KI überbewertet seien.
Um diese Finanzierungsrunde abzuschließen, wandelt sich OpenAI möglicherweise von einer gemeinnützigen zu einer gewinnorientierten Organisation, aber am verwirrendsten ist, was die Investoren tatsächlich bekommen. Kate Clark von The Information berichtet, dass den Investoren in dieser Runde gesagt wurde (Zitat), dass sie für ihre Investition kein traditionelles Eigenkapital erhalten würden … Stattdessen wurden ihnen Anteile gegeben, die einen Anteil am Unternehmensgewinn versprachen – sobald das Unternehmen profitabel wird, würden sie einen Anteil am Gewinn erhalten.
Es ist nicht klar, ob dieses Problem durch die Umstellung auf ein gewinnorientiertes Unternehmen gelöst werden könnte, da die seltsame Unternehmensstruktur von OpenAI, „gemeinnützig + gewinnorientiert“, bedeutet, dass Microsoft im Rahmen seiner Investition im Jahr 2023 Anspruch auf 751 Milliarden Dollar der Gewinne von OpenAI hat – obwohl eine Umstellung auf eine gewinnorientierte Struktur theoretisch auch Eigenkapital beinhalten könnte. Wenn Sie jedoch in OpenAI investieren, erhalten Sie „Profit-Sharing Units“ (PPUs), kein Eigenkapital. Wie Jack Raines in Sherwood schreibt: „Wenn Sie die PPUs von OpenAI besitzen, das Unternehmen aber nie Gewinn macht und Sie sie nicht an jemanden verkaufen können, der glaubt, dass OpenAI irgendwann Gewinn machen wird, dann sind Ihre PPUs wertlos.“
Am Wochenende veröffentlichte Reuters einen Bericht, in dem es hieß, dass eine Bewertung von 10 Billionen TP150 davon abhängen würde, ob OpenAI sein gesamtes Unternehmen umstrukturieren und dabei eine Obergrenze für Investorengewinne aufheben könne, die derzeit auf das 100-fache der ursprünglichen Investition begrenzt ist. Die Gewinnobergrenze wurde 2019 eingeführt, als OpenAI erklärte, dass alle darüber hinausgehenden Gewinne zum Wohle der Menschheit an gemeinnützige Organisationen zurückgegeben würden. In den letzten Jahren hat das Unternehmen diese Regel geändert, um ab 2025 jedes Jahr eine Erhöhung der Gewinnobergrenze um 201 Billionen TP9 zu ermöglichen.
Angesichts der bestehenden Gewinnbeteiligungsvereinbarung zwischen OpenAI und Microsoft – ganz zu schweigen von den massiven Verlusten, in denen das Unternehmen steckt – wäre jede Rendite bestenfalls theoretisch. Auf die Gefahr hin, leichtfertig zu klingen: Selbst ein Gewinn von 500% ist immer noch Null.
Reuters fügte außerdem hinzu, dass jede Umstellung auf eine gewinnorientierte Struktur (und damit eine Erhöhung der Bewertung über die jüngste Marke von $80 Milliarden) OpenAI zu Neuverhandlungen mit bestehenden Investoren zwingen würde, da deren Anteile verwässert würden.
Die Financial Times stellte Berichten zufolge auch fest, dass Investoren eine Betriebsvereinbarung unterzeichnen müssen, in der es heißt: Jede Investition in [die gewinnorientierte Tochtergesellschaft von OpenAI] sollte im Geiste einer Spende betrachtet werden. und dass OpenAI möglicherweise nie Gewinn macht. Solche Bedingungen sind in der Tat verrückt, und jeder, der in OpenAI investiert, das darunter leidet, tut dies auf eigene Gefahr, denn es ist eine äußerst absurde Investition.
In Wirklichkeit bekamen die Investoren weder einen Anteil an OpenAI noch irgendeine Kontrolle darüber, sondern vielmehr einen Anteil an den zukünftigen Gewinnen eines Unternehmens, das jährlich mehr als $5 Milliarden verliert und bis 2025 (falls es so weit kommt) wahrscheinlich noch mehr verlieren wird.
Die Modelle und Produkte von OpenAI – wir werden später auf ihre Nützlichkeit eingehen – sind im Betrieb äußerst unrentabel. The Information berichtet, dass OpenAI Microsoft im Jahr 2024 etwa $4 Milliarden für die Unterstützung von ChatGPT und den zugrunde liegenden Modellen zahlen wird, und zwar zusätzlich zu Microsofts ermäßigtem Preis von $1,30 pro GPU und Stunde, verglichen mit den $3,40 bis $4 pro Stunde, die andere Kunden normalerweise zahlen. Das bedeutet, dass OpenAI ohne eine enge Partnerschaft mit Microsoft bis zu $6 Milliarden pro Jahr für Server ausgeben könnte – ohne andere Ausgaben wie Personalkosten ($1,5 Milliarden pro Jahr). Und wie ich bereits erwähnt habe, betragen die Schulungskosten derzeit $3 Milliarden pro Jahr und werden mit ziemlicher Sicherheit weiter steigen.
Obwohl The Information im Juli berichtete, dass der Jahresumsatz von OpenAI zwischen 10.350 und 4.500 Milliarden TP100000000 betrug, meldete die New York Times letzte Woche, dass der Jahresumsatz von OpenAI nun über 10.200 Milliarden TP10 ...
Kurz gesagt: OpenAI „verbrennt Geld“ und wird in Zukunft noch mehr Geld verbrennen. Und um das auch weiterhin zu tun, muss das Unternehmen Mittel von Investoren aufbringen, die eine Erklärung unterzeichnet haben, dass sie „vielleicht nie profitabel sein werden“.
Wie ich bereits geschrieben habe, besteht ein weiteres Problem für OpenAI darin, dass generative KI (die sich auf das GPT-Modell und das ChatGPT-Produkt erstreckt) nicht die Art komplexer Probleme löst, die ihre enormen Kosten rechtfertigen. Die Modelle sind probabilistisch, was zu riesigen, unlösbaren Problemen führt – mit anderen Worten, sie wissen nichts und generieren lediglich Antworten (oder Bilder, Übersetzungen oder Zusammenfassungen) auf der Grundlage von Trainingsdaten, die den Modellentwicklern mit alarmierender Geschwindigkeit ausgehen.
Das Phänomen der „Halluzination“ – wenn ein Modell explizit Informationen generiert, die nicht real sind (oder etwas generiert, das in einem Bild oder Video falsch aussieht) – kann mit vorhandenen mathematischen Werkzeugen nicht vollständig gelöst werden. Obwohl es möglich sein mag, Halluzinationen zu reduzieren oder abzuschwächen, macht ihre Existenz es schwierig, sich bei kritischen Geschäftsanwendungen wirklich auf generative KI zu verlassen.
Selbst wenn generative KI technische Probleme löst, ist unklar, ob sie tatsächlich einen Mehrwert für das Unternehmen bringt. The Information berichtete letzte Woche, dass die Kunden von Microsofts 365-Suite (die unter anderem Word, Excel, PowerPoint und Outlook sowie insbesondere viele der unternehmensorientierten Pakete umfasst, die auch eng mit den Beratungsdiensten von Microsoft verknüpft sind) die KI-gesteuerten „Copilot“-Produkte kaum angenommen haben. Nur 0,11 bis 11 TP9T von 4,4 Millionen Benutzern, also jeweils 10 bis 30 TP10T50, zahlen für diese Funktionen. Ein Unternehmen, das die KI-Funktionen testet, sagte: „Die meisten Leute sehen im Moment keinen großen Nutzen darin.“ Andere meinten: „Viele Unternehmen haben noch keine bahnbrechenden Zuwächse bei der Produktivität und in anderen Bereichen erlebt“ und sie seien „nicht sicher, wann das passieren wird.“
Wie viel verlangt Microsoft also für diese unwichtigen Funktionen? Unglaubliche $30 zusätzlich pro Benutzer und Monat oder bis zu $50 pro Benutzer und Monat für die Verkaufsassistentenfunktion. Das bedeutet für die Kunden, dass sie ihre bestehenden Gebühren (übrigens bei einem Jahresvertrag!) für Produkte verdoppeln müssen, die nicht besonders nützlich erscheinen.
Eines muss noch hinzugefügt werden: Die Probleme von Microsoft sind so komplex, dass sie in Zukunft möglicherweise eigene Nachrichteninhalte erfordern.
Dies ist der Zustand der generativen KI – der Marktführer für Produktivitäts- und Unternehmenssoftware kann kein Produkt finden, für das die Kunden zu zahlen bereit sind, teils weil die Ergebnisse zu mittelmäßig sind und teils weil die Kosten zu hoch sind, um sie zu rechtfertigen. Wenn Microsoft so viel verlangen muss, liegt das entweder daran, dass Satya Nadella bis 2030 einen Umsatz von $500 Milliarden erreichen will (ein Ziel, das in einem Memo während der öffentlichen Anhörungen zur Übernahme von Activision Blizzard durch Microsoft enthüllt wurde), oder daran, dass die Kosten zu hoch sind, um den Preis zu senken, oder beides.
Fast alle betonten jedoch, dass die Zukunft der KI uns schockieren werde – die nächste Generation großer Sprachmodelle stehe unmittelbar bevor und sie werde erstaunlich sein.
Letzte Woche haben wir zum ersten Mal einen echten Blick in diese sogenannte Zukunft werfen können. Und es war eine Enttäuschung.
Ein alberner Zaubertrick
OpenAI veröffentlichte O 1 – Codename Strawberry – am späten Donnerstag mit der Aufregung, die man bei einem Zahnarztbesuch verspürt. Sam Altman bezeichnete O 1 in einer Reihe von Tweets als OpenAIs „bisher leistungsstärkstes und abgestimmtestes Modell“. Er räumte zwar ein, dass O 1 „immer noch Mängel hat, immer noch begrenzt ist und nach einer Weile nicht mehr so beeindruckend ist wie beim ersten Mal“, versprach aber, dass O 1 bei Aufgaben, die eindeutige richtige Antworten haben, wie etwa Programmier-, Mathe- oder wissenschaftliche Fragen, genauere Ergebnisse liefern würde.
Das allein ist schon recht aufschlussreich – aber darauf kommen wir gleich noch näher. Lassen Sie uns zunächst darüber sprechen, wie es tatsächlich funktioniert. Ich werde einige neue Konzepte vorstellen, aber ich verspreche, nicht zu sehr ins Detail zu gehen. Wenn Sie die Erklärung von OpenAI wirklich lesen möchten, finden Sie sie in ihrem Artikel auf der offiziellen Website – Learning to Reason with LLMs.
Wenn o1 vor einem Problem steht, zerlegt es dieses in einzelne Schritte – Schritte, die hoffentlich irgendwann zur richtigen Antwort führen. Dieser Prozess wird als „Gedankenkette“ bezeichnet. o1 lässt sich leichter verstehen, wenn man es sich als zwei Teile desselben Modells vorstellt.
Bei jedem Schritt wendet ein Teil des Modells Verstärkungslernen an, und ein anderer Teil (der Teil, der das Ergebnis ausgibt) wird basierend auf der Richtigkeit seines Fortschritts (sein Denkschritt) belohnt oder bestraft und passt seine Strategie an, wenn er bestraft wird. Dies unterscheidet sich von der Funktionsweise anderer großer Sprachmodelle, da das Modell eine Ausgabe generiert und dann zurückblickt, und anstatt nur eine Antwort zu generieren und sie dann direkt auszugeben, ignoriert oder erkennt es gute Schritte, um zur endgültigen Antwort zu gelangen.
Das klingt zwar nach einem großen Durchbruch oder sogar einem weiteren Schritt in Richtung der vielgepriesenen künstlichen allgemeinen Intelligenz (AGI), ist es aber nicht, wie die Tatsache zeigt, dass OpenAI sich dafür entschieden hat, o1 als eigenständiges Produkt und nicht als aktualisierte Version von GPT zu veröffentlichen. Die Beispiele, die OpenAI zeigte – etwa Mathematik- und Naturwissenschaftsprobleme – waren Aufgaben, bei denen die Antworten im Voraus bekannt waren und die Antworten entweder richtig oder falsch waren, sodass das Modell bei jedem Schritt die „Gedankenkette“ leiten konnte.
Sie werden feststellen, dass OpenAI nicht gezeigt hat, wie das o1-Modell komplexe Probleme lösen würde, bei denen die Antwort unbekannt ist, sei es ein mathematisches Problem oder etwas anderes. OpenAI selbst gibt zu, dass es Rückmeldungen erhalten hat, dass o1 anfälliger für „Halluzinationen“ ist als GPT-4o und dass o1 weniger bereit ist zuzugeben, dass es keine Antwort hat als frühere Modelle. Dies liegt daran, dass es zwar einen Teil des Modells gibt, der für die Überprüfung seiner Ausgaben verantwortlich ist, dieser „überprüfende“ Teil jedoch auch halluzinieren kann (manchmal erfindet die KI Antworten, die vernünftig erscheinen, und erzeugt so Halluzinationen).
Laut OpenAI ist O1 aufgrund eines „Gedankenketten“-Mechanismus auch für menschliche Benutzer überzeugender. Da O1 detailliertere Antworten liefert, neigen die Menschen eher dazu, seinen Ergebnissen zu vertrauen, selbst wenn diese Antworten völlig falsch sind.
Wenn Sie meinen, dass meine Kritik an OpenAI zu hart ist, dann bedenken Sie, wie das Unternehmen für o1 wirbt. Es beschreibt den Prozess des Verstärkungstrainings als „Denken“ und „Argumentation“, aber in Wirklichkeit ist es nur Raten, und bei jedem Schritt wird geraten, ob es richtig ist, und das Endergebnis ist oft im Voraus bekannt.
Das ist eine Beleidigung für Menschen – echte Denker. Menschen denken auf der Grundlage einer komplexen Reihe von Faktoren: von persönlicher Erfahrung über lebenslanges Wissen bis hin zur Gehirnchemie. Wir „raten“, ob bestimmte Schritte bei der Lösung komplexer Probleme richtig sind, aber unsere Vermutungen basieren auf konkreten Fakten und nicht auf plumper Mathematik wie in o 1.
Und, Junge, es war teuer.
o1-preview kostet $15 pro Million Eingabetoken und $60 pro Ausgabetoken. Das bedeutet, dass o1 dreimal so viel wie GPT-4o für die Eingabe und viermal so viel für die Ausgabe kostet. Es gibt jedoch versteckte Kosten. Der Datenwissenschaftler Max Woolf weist darauf hin, dass die „Inferenztoken“ von OpenAI – die Ausgabe, die verwendet wird, um zur endgültigen Antwort zu gelangen – in der API nicht sichtbar sind. Dies bedeutet, dass o1 nicht nur teurer ist, sondern dass die Art seines Produkts es erfordert, dass Benutzer häufiger zahlen. Für alle Inhalte, die generiert werden, um die Antwort zu „berücksichtigen“ (um es klarzustellen: das Modell „denkt“ nicht), werden ebenfalls Gebühren erhoben, was die Antworten auf komplexe Probleme wie das Programmieren potenziell extrem teuer macht.
Lassen Sie uns nun über Genauigkeit sprechen. Auf Hacker News, einer Reddit-ähnlichen Site im Besitz von Sam Altmans früherem Unternehmen Y Combinator, gab es Beschwerden, dass O1 nicht vorhandene Bibliotheken und Funktionen für Programmieraufgaben erfinde und Fehler bei der Beantwortung von Fragen mache, die online nicht ohne Weiteres beantwortet werden könnten.
Auf Twitter bat der Startup-Gründer und ehemalige Spieleentwickler Henrik Kniberg o1, ein Python-Programm zu schreiben, um das Produkt zweier Zahlen zu berechnen und die Ausgabe des Programms vorherzusagen. Obwohl o1 den Code korrekt geschrieben hatte (obwohl der Code prägnanter hätte sein können und nur eine Zeile erforderlich ist), war die tatsächliche Ausgabe völlig falsch. Der Gründer des KI-Unternehmens Karthik Kannan nahm ebenfalls am Programmieraufgabentest teil und o1 erfand außerdem einen Befehl, der in der API nicht vorhanden war.
Ein anderer Benutzer, Sasha Yanshin, versuchte mit o1 Schach zu spielen, doch o1 erzeugte aus dem Nichts eine Schachfigur auf dem Brett und verlor anschließend das Spiel.
Weil ich spielerisch war, habe ich o1 auch gebeten, die Staaten aufzulisten, die ein A im Namen haben. Es dachte 18 Sekunden nach und kam auf 37 Staaten, darunter Mississippi. Die richtige Antwort müsste 36 Staaten sein.
Als ich es aufforderte, die Staaten mit einem W im Namen aufzulisten, überlegte es elf Sekunden und schloss tatsächlich North Carolina und North Dakota ein.
Ich fragte o1 auch, wie oft der Buchstabe R in seinem Codenamen Strawberry vorkommt, und es antwortete: zwei.
OpenAI behauptet, dass O1 bei komplexen Benchmarks in Physik, Chemie und Biologie auf Augenhöhe mit Doktoranden abschneidet, in Geographie, grundlegenden Englischtests, Mathematik und Programmierung jedoch offenbar schlechte Ergebnisse erzielt.
Bemerkenswerterweise ist dies genau die „große, dumme Magie“, die ich in meinem letzten Newsletter vorhergesagt habe. OpenAI hat Strawberry nur gestartet, um Investoren und der Öffentlichkeit zu beweisen, dass die KI-Revolution noch im Gange ist. Tatsächlich wurde jedoch ein klobiges, langweiliges und teures Modell auf den Markt gebracht.
Schlimmer noch: Es ist schwer zu erklären, warum sich irgendjemand für o1 interessieren sollte. Während Sam Altman mit seiner „Argumentationsfähigkeit“ prahlt, müssen diejenigen, die das Geld haben, um ihn weiterhin zu finanzieren, mit Wartezeiten von 10 bis 20 Sekunden, Problemen mit der grundlegenden sachlichen Genauigkeit und dem Fehlen aufregender neuer Funktionen rechnen.
Niemand interessiert sich mehr für eine „bessere“ Antwort – sie wollen etwas radikal Neues, und ich glaube nicht, dass OpenAI weiß, wie das erreicht werden kann. Altman versucht, O1 zu vermenschlichen, indem er es „denken“ und „vernünftig“ machen lässt, was eindeutig darauf hindeutet, dass es sich um eine Art Schritt in Richtung künstlicher allgemeiner Intelligenz (AGI) handelt, aber es ist schwer, selbst die überzeugtesten KI-Befürworter zu begeistern.
Tatsächlich denke ich, dass o1 zeigt, dass OpenAI sowohl verzweifelt als auch unkreativ ist.
Die Preise sind nicht gesunken, die Software ist nicht nützlicher geworden und die Modelle der „nächsten Generation“, von denen wir seit November gehört haben, haben sich als Reinfall erwiesen. Diese Modelle benötigen außerdem dringend Trainingsdaten, und zwar so sehr, dass fast jedes große Sprachmodell irgendeine Art von urheberrechtlich geschütztem Inhalt aufnimmt. Diese Dringlichkeit veranlasste Runway, eines der größten generativen Videounternehmen, dazu, eine „unternehmensweite Aktion“ zu starten, um Tausende von YouTube-Videos und Raubkopien zu sammeln, um seine Modelle zu trainieren. Im August wurde NVIDIA in einer Bundesklage beschuldigt, vielen Entwicklern ähnliche Dinge anzutun, um seine KI-Software „Cosmos“ zu trainieren.
Die derzeitige Rechtsstrategie beruht weitgehend auf Willenskraft und der Hoffnung, dass diese Klagen nicht so weit gehen, dass sie einen Präzedenzfall schaffen, der das Training dieser Modelle zu einer Urheberrechtsverletzung machen könnte. Genau das ist das Ergebnis einer kürzlich durchgeführten interdisziplinären Studie, die von der Copyright Initiative gefördert wurde.
Diese Klagen kommen voran, und im August sprach ein Richter den Klägern weitere Klagen wegen Urheberrechtsverletzungen gegen Stability AI und DeviantArt (die die Modelle verwendet haben) sowie Klagen wegen Urheberrechts- und Markenverletzung gegen Midjourney zu. Sollte eine der Klagen Erfolg haben, wäre das ein katastrophaler Schlag für OpenAI und Anthropic und noch mehr für Google und Meta, die Datensätze mit Millionen von Künstlerwerken verwenden, denn es wäre für KI-Modelle nahezu unmöglich, ihre Trainingsdaten zu „vergessen“, was bedeutet, dass sie von Grund auf neu trainiert werden müssten, was Milliarden von Dollar kosten und ihre Effektivität bei Aufgaben, für die sie nicht besonders gut sind, stark verringern würde.
Ich bin zutiefst besorgt, dass diese Branche eine Festung am Strand baut. Große Sprachmodelle wie ChatGPT, Claude, Gemini und Llama sind nicht nachhaltig und es scheint keinen Weg zur Profitabilität zu geben, denn die rechenintensive Natur der generativen KI bedeutet, dass ihre Schulung Hunderte Millionen oder sogar Milliarden Dollar kostet und so große Mengen an Trainingsdaten benötigt, dass diese Unternehmen effektiv Daten von Millionen von Künstlern und Schriftstellern stehlen und hoffen, damit durchzukommen.
Selbst wenn wir diese Probleme beiseite lassen, scheinen generative KI und die damit verbundenen Architekturen nicht revolutionär zu sein, und der Hype-Zyklus um generative KI entspricht überhaupt nicht der Bedeutung des Begriffs „künstliche Intelligenz“. Generative KI ist nur gelegentlich in der Lage, Inhalte korrekt zu generieren, Dokumente zusammenzufassen oder Recherchen mit einer unbestimmten „schnelleren“ Geschwindigkeit durchzuführen. Microsofts Copilot für Microsoft 365 behauptet, „Tausende von Fähigkeiten“ und „unendliche Möglichkeiten“ für Unternehmen zu bieten, aber die gezeigten Beispiele sind nichts weiter als das Generieren oder Zusammenfassen von E-Mails, „das Starten von Präsentationen mit Eingabeaufforderungen“ und das Abfragen von Excel-Tabellen – Funktionen, die nützlich sein können, aber keineswegs revolutionär sind.
Wir befinden uns nicht in der „frühen Phase“. Seit November 2022 haben große Technologieunternehmen über 100 Milliarden TP150 Milliarden für Investitionen in Infrastruktur und aufstrebende KI-Startups sowie in ihre eigenen Modelle ausgegeben. OpenAI hat 100 Milliarden TP13 Milliarden aufgebracht und kann einstellen, wen es will, und dasselbe gilt für Anthropic.
Das Ergebnis dieser industriellen Version des Marshallplans zur Förderung der Entwicklung generativer künstlicher Intelligenz ist jedoch lediglich die Geburt von vier oder fünf nahezu identischen großen Sprachmodellen, der weltweit am wenigsten profitablen Start-ups und Tausender teurer, aber mittelmäßiger integrierter Anwendungen.
Generative KI wird mit zahlreichen Lügen vermarktet:
1. Es ist künstliche Intelligenz. 2. Es wird besser werden. 3. Es wird echte künstliche Intelligenz werden. 4. Es ist nicht mehr aufzuhalten.
Wenn man Begriffe wie „Leistung“ außer Acht lässt, die häufig verwendet werden, um die „Genauigkeit“ oder „Geschwindigkeit“ des generierten Inhalts und nicht das Fähigkeitsniveau zu beschreiben, haben große Sprachmodelle tatsächlich ein Plateau erreicht. „Leistungsstärker“ bedeutet oft nicht „kann mehr“, sondern „teurer“, was bedeutet, dass Sie gerade etwas geschaffen haben, das mehr kostet, dessen Funktionalität jedoch nicht zunimmt.
Wenn die vereinten Kräfte aller Risikokapitalgeber und großen Technologiegiganten noch immer keinen wirklich sinnvollen Anwendungsfall gefunden haben, für den viele Menschen bereit sind zu zahlen, dann wird es keine neuen Anwendungsfälle geben. Große Sprachmodelle – ja, da fließen all diese Milliarden hin – werden nicht plötzlich leistungsfähiger, nur weil die Technologiegiganten und OpenAI weitere $150 Milliarden dafür aufbringen. Niemand versucht, diese Dinge effizienter zu machen, oder zumindest gelingt es niemandem. Wenn es jemandem gelingen würde, würde er es hochjubeln.
Wir stehen vor einer kollektiven Täuschung – einer Sackgassentechnologie, die auf Urheberrechtsdiebstahl basiert (wie dies bei jeder Technologiegeneration der Fall ist), die ständig Kapital benötigt, um am Laufen zu bleiben, die bestenfalls entbehrliche Dienste bietet, die als eine Art automatisierte Funktionalität getarnt sind, die in Wirklichkeit nicht bereitgestellt wird, die Milliarden von Dollar kostet und dies auch weiterhin tun wird. Generative KI läuft nicht mit Geld (oder Cloud-Computing-Guthaben), sondern mit Vertrauen. Das Problem ist, dass Vertrauen – wie Investitionskapital – eine begrenzte Ressource ist.
Ich befürchte, dass wir uns möglicherweise mitten in einer KI-Krise befinden, die der Subprime-Hypothekenkrise ähnelt: Tausende von Unternehmen integrieren generative KI in ihr Geschäft, aber die Preise sind alles andere als stabil und von der Rentabilität noch weiter entfernt.
Fast jedes Startup, das behauptet, „KI-gesteuert“ zu sein, basiert auf einer Kombination aus GPT oder Claude. Diese Modelle wurden von zwei Unternehmen entwickelt, die hohe Verluste machen (Anthropic erwartet für dieses Jahr einen Verlust von $2,7 Milliarden), und ihre Preisstrategien sind darauf ausgelegt, mehr Kunden anzuziehen, anstatt Gewinn zu machen. Wie bereits erwähnt, ist OpenAI auf die Finanzierung durch Microsoft angewiesen – sowohl auf die „Cloud Computing Credits“, die es erhält, als auch auf die günstigen Preise, die Microsoft bietet – und seine Preisgestaltung ist vollständig von der anhaltenden Unterstützung durch Microsoft als Investor und Dienstanbieter abhängig. Anthropics Verträge mit Amazon und Google stehen vor ähnlichen Problemen.
Aufgrund ihrer Verluste vermute ich, dass sich der Preis für API-Aufrufe verzehn- bis hundertmal erhöhen könnte, wenn OpenAI oder Anthropic ihre Preise näher an den tatsächlichen Kosten festlegen würden, obwohl es ohne tatsächliche Daten schwer ist, das genau zu sagen. Aber wir können die von The Information gemeldeten Zahlen berücksichtigen, die voraussagen, dass die Serverkosten von OpenAI bei Microsoft im Jahr 2024 $4 Milliarden erreichen werden – was, wie ich hinzufügen möchte, zweieinhalb Mal billiger ist, als Microsoft anderen Kunden berechnet – plus die Tatsache, dass OpenAI immer noch mehr als $5 Milliarden pro Jahr verliert.
Es ist sehr wahrscheinlich, dass OpenAI nur einen Bruchteil dessen verlangt, was für den Betrieb seiner Modelle nötig ist. Das Unternehmen kann diesen Status Quo nur aufrechterhalten, wenn es weiterhin mehr Risikokapital als je zuvor aufbringen und weiterhin günstige Preise von Microsoft erhalten kann. Microsoft erklärte kürzlich, dass es OpenAI als Konkurrenten betrachtet. Obwohl man das nicht mit Sicherheit sagen kann, kann man davon ausgehen, dass Anthropic auch von Amazon Web Services und Google Cloud ähnlich günstige Preise erhält.
Angenommen, Microsoft gewährt OpenAI 1 TP10T10 Milliarden in Cloud-Computing-Guthaben und OpenAI gibt 1 TP10T4 Milliarden für Serverkosten aus, zuzüglich geschätzter 1 TP10T2 Milliarden für Schulungskosten – Kosten, die mit der Einführung der neuen Modelle O-1 und „Orion“ sicherlich noch weiter steigen –, dann benötigt OpenAI möglicherweise bis 2025 mehr Gutschriften oder beginnt, Microsoft in bar zu bezahlen.
Microsoft, Amazon und Google bieten zwar weiterhin günstige Preise an, doch die Frage ist, ob diese Deals für sie profitabel sind. Wie wir nach Microsofts jüngstem Quartalsbericht gesehen haben, haben Investoren zunehmend Bedenken hinsichtlich der für den Aufbau einer generativen KI-Infrastruktur erforderlichen Investitionsausgaben (CapEx) geäußert, und viele sind skeptisch, was die potenzielle Rentabilität dieser Technologie angeht.
Was wir nicht wirklich wissen, ist, wie profitabel Generative AI für diese riesigen Technologieunternehmen ist, weil sie diese Kosten in andere Einnahmen einbeziehen. Wir können zwar nicht sicher sein, aber ich kann mir vorstellen, dass diese Unternehmen, wenn sie überhaupt profitabel wären, über die Einnahmen sprechen würden, die sie damit erzielen, aber das tun sie nicht.
Die extreme Skepsis des Marktes gegenüber dem generativen KI-Boom und das Fehlen substanzieller Antworten von Nvidia-CEO Jensen Huang zur Kapitalrendite im Bereich KI führten dazu, dass der Marktwert von Nvidia an einem einzigen Tag um $279 Milliarden einbrach. Dies war der größte Börsencrash in der Geschichte des US-Marktes, wobei der Gesamtwertverlust dem Höchststand von fast fünf Lehman Brothers entsprach. Auch wenn der Vergleich hier endet – für Nvidia bestand nicht einmal die Gefahr eines Scheiterns, und selbst wenn es dazu gekommen wäre, wären die systemischen Auswirkungen nicht so gravierend gewesen –, so ist die Summe dennoch erschreckend und zeigt die verzerrende Wirkung der KI auf den Markt.
Microsoft, Amazon und Google mussten Anfang August allesamt eine Schlappe für ihre massiven Investitionen im Bereich KI einstecken, und der Druck auf sie wird noch weiter steigen, wenn sie im nächsten Quartal nicht ein signifikantes Umsatzwachstum ausweisen können für die $150 Milliarden (oder mehr), die sie in neue Rechenzentren und NVIDIA-Grafikprozessoren investiert haben.
Man darf nicht vergessen, dass es für die großen Technologieunternehmen keinen anderen Markt für Ideen gibt als KI. Als Unternehmen wie Microsoft und Amazon Anzeichen einer Wachstumsverlangsamung zeigten, versuchten sie ebenfalls, dem Markt zu beweisen, dass sie noch immer wettbewerbsfähig waren. Google, ein Monopol mit mehreren Risiken, das fast ausschließlich auf Suche und Werbung angewiesen ist, brauchte ebenfalls etwas Neues und Auffälliges, um die Aufmerksamkeit der Anleger zu erregen. Diese Produkte brachten jedoch nicht genügend Nutzen und es schien, als ob der Großteil des Umsatzes von Unternehmen kam, die KI ausprobierten und feststellten, dass es sich nicht lohnte.
Derzeit gibt es zwei Möglichkeiten:
1. Große Technologieunternehmen erkennen, dass sie in großen Schwierigkeiten stecken, und entscheiden sich aus Angst vor der Missbilligung der Wall Street für eine Reduzierung ihrer KI-bezogenen Kapitalausgaben.
2. Um neue Wachstumspotenziale zu finden, entschieden sich große Technologieunternehmen dazu, Kosten zu senken, um ihre disruptiven Geschäftstätigkeiten aufrechtzuerhalten. Sie entließen Mitarbeiter und transferierten Mittel aus anderen Geschäftsbereichen, um das Todesrennen der generativen KI zu unterstützen.
Es ist nicht klar, welches Szenario eintreten wird. Wenn die großen Technologieunternehmen akzeptieren, dass generative KI keine Realität der Zukunft ist, haben sie der Wall Street eigentlich nichts anderes vorzuweisen, als eine „Jahr der Effizienz“-Strategie ähnlich der von Meta zu verfolgen, bei der sie die Kapitalausgaben reduzieren (und Mitarbeiter entlassen) und gleichzeitig versprechen, die Investitionen bis zu einem gewissen Grad zu „senken“. Dies ist der wahrscheinlichste Weg für Amazon und Google, denn obwohl sie bestrebt sind, der Wall Street zu gefallen, können sie zumindest im Moment noch auf ihre profitablen Monopole zurückgreifen.
Allerdings muss in den kommenden Quartalen tatsächliches Umsatzwachstum durch KI zu verzeichnen sein, und zwar ein beträchtliches. Es dürfen keine vagen Aussagen darüber gemacht werden, dass KI ein „reifer Markt“ sei oder eine „annualisierte Wachstumsrate“ betrage. Wenn es zu höheren Investitionsausgaben kommt, muss dieser tatsächliche Beitrag deutlich höher sein.
Ich glaube nicht, dass es zu diesem Wachstum kommen wird. Ob im dritten Quartal 2024, im vierten Quartal 2024 oder im ersten Quartal 2025 – die Wall Street wird anfangen, die großen Technologieunternehmen für ihre Gier nach KI zu bestrafen, und diese Strafe wird viel härter ausfallen als für Nvidia, das trotz Huangs leeren Worten und nutzlosen Slogans das einzige Unternehmen ist, das tatsächlich zeigen kann, wie KI den Umsatz steigern kann.
Ich bin etwas besorgt, dass das zweite Szenario wahrscheinlicher ist: Diese Unternehmen sind so überzeugt, dass KI die Zukunft ist, dass ihre Unternehmenskultur so weit von der Entwicklung von Software entfernt ist, die echte Probleme löst, dass das Unternehmen daran scheitern könnte. Ich bin zutiefst besorgt, dass Massenentlassungen zur Finanzierung dieser Bewegung genutzt werden, und die letzten Jahre lassen mich nicht glauben, dass sie die richtige Entscheidung treffen werden, KI zu verlassen.
Die großen Technologiekonzerne sind von Unternehmensberatern gründlich vergiftet worden – Amazon, Microsoft und Google werden alle von MBAs geführt – und haben sich mit ähnlichen Monstern umgeben, wie etwa Prabhakar Raghavan von Google, der die Leute, die Google Search tatsächlich aufgebaut haben, hinausgejagt hat, um die Kontrolle zu übernehmen.
Diese Leute beschäftigen sich nicht wirklich mit menschlichen Problemen, sondern schaffen Kulturen, die sich auf die Lösung imaginärer Probleme konzentrieren, die Software beheben kann. Generative KI mag Leuten, die ihr ganzes Leben in Meetings verbringen oder E-Mails lesen, ein wenig magisch erscheinen. Ich schätze, Satya Nadellas (Microsoft-CEO) Erfolgsmentalität besteht größtenteils darin, „die Technologen das Problem lösen zu lassen“. Sundar Pichai hätte dem ganzen Hype um generative KI ein Ende setzen können, indem er einfach Microsofts Investition in OpenAI verspottet hätte – aber er hat es nicht getan, weil diese Leute keine wirklichen Ideen haben und diese Unternehmen nicht von Leuten geführt werden, die die Probleme erlebt haben, geschweige denn von solchen, die tatsächlich wissen, wie man sie löst.
Auch sie sind verzweifelt, und die Situation war für sie noch nie so ernst, abgesehen davon, dass Meta Milliarden von Dollar im Metaverse verbrannt hat. Allerdings ist die aktuelle Situation noch viel ernster und hässlicher, weil sie so viel Geld investiert und die KI so eng mit ihrem Unternehmen verknüpft haben, dass ein Rückzug aus der KI sowohl peinlich als auch schädlich für die Aktie wäre. Damit kämen sie praktisch einem stillschweigenden Eingeständnis gleich, dass dies alles Zeitverschwendung ist.
Dies hätte früher aufhören können, wenn die Medien sie tatsächlich zur Verantwortung gezogen hätten. Diese Geschichte wird mit dem gleichen Betrug wie in früheren Hype-Zyklen verkauft, wobei die Medien davon ausgehen, dass diese Unternehmen „das Problem lösen“ werden, obwohl klar ist, dass sie es nicht tun werden. Glauben Sie, ich bin pessimistisch? Was kommt als Nächstes für generative KI? Was wird sie als Nächstes tun? Wenn Ihre Antwort ist, dass sie „das Problem lösen“ oder dass sie „erstaunliche Dinge hinter den Kulissen haben“, dann sind Sie unwissentlich Teilnehmer einer Marketingaktion (denken Sie eine Minute darüber nach).
Anmerkung des Autors: Wir müssen wirklich aufhören, uns von diesem Zeug täuschen zu lassen. Als Mark Zuckerberg behauptete, wir stünden kurz vor dem Eintritt in das Metaverse, beteiligten sich eine Menge Medien – wie die New York Times, The Verge, CBS News und CNN – an der Werbung für ein offensichtlich fehlerhaftes Konzept, das schrecklich aussah und sich auf glatte Lügen über die Zukunft stützte. Es ist eindeutig nichts weiter als eine beschissene VR-Welt, aber das Wall Street Journal nannte es sechs Monate, nachdem der Hype-Zyklus eindeutig abgelaufen war, immer noch „eine Vision für die Zukunft des Internets“. Dasselbe gilt für Krypto, Web3 und NFTs! The Verge, The New York Times, CNN, CBS News – diese Medien sind wieder einmal daran beteiligt, Technologie zu bewerben, die offensichtlich nutzlos ist – ich sollte The Verge ausdrücklich erwähnen, und zwar Casey Newton, der trotz seines guten Rufs im Juli behauptete, dass „der Besitz eines der leistungsstärksten großen Sprachmodelle die Grundlage für alle möglichen lukrativen Produkte für Unternehmen bilden könnte“, nachdem es drei Hypes in Folge um die Technologie gegeben hatte, während die Technologie in Wirklichkeit nur Geld verliert und bisher keine wirklich nützlichen und dauerhaften Produkte hervorgebracht hat.
Ich bin überzeugt, dass Microsoft zumindest damit beginnen wird, die Kosten in anderen Geschäftsbereichen zu senken, um den KI-Boom aufrechtzuerhalten. In E-Mails, die mir Anfang des Jahres von einer Quelle zugespielt wurden, forderte die oberste Führungsebene von Microsoft (was sie letztlich jedoch auf Eis legte), dass der Strombedarf in mehreren Bereichen des Unternehmens gesenkt werden sollte, um Strom für GPUs freizugeben. Dazu gehört auch die Verlagerung von Rechenleistung für andere Dienste in andere Länder, um Rechenkapazität für KI freizugeben.
Im Microsoft-Bereich des anonymen sozialen Netzwerks Blind (Verifizierung der Firmen-E-Mail erforderlich), Ein Microsoft-Mitarbeiter beschwerte sich Mitte Dezember 2023, dass KI ihm Geld aus der Tasche ziehe. Die Kosten für KI seien zu hoch, sie fresse Gehaltserhöhungen auf und es werde nicht besser. Ein anderer Mitarbeiter teilte Mitte Juli seine Bedenken mit und sagte, er habe eindeutig das Gefühl, dass Microsoft süchtig danach sei, den operativen Cashflow aus Kostensenkungen zur Finanzierung des Nvidia-Aktienkurses zu erzielen, und dass diese Praxis der Unternehmenskultur von Microsoft zutiefst schade.
Ein anderer Mitarbeiter fügte hinzu, dass er davon überzeugt sei, dass Copilot Microsoft im Geschäftsjahr 2025 den Garaus machen werde und dass der Fokus auf Copilot im Geschäftsjahr 2025 deutlich nachlassen werde. Er verriet auch, dass ihm große Copilot-Deals in seinem Land bekannt seien, bei denen nach fast einem Jahr voller PoCs, Entlassungen und Anpassungen weniger als 20% genutzt würden. Er sagte, dass das Unternehmen zu viele Risiken eingegangen sei und dass sich die enormen KI-Investitionen von Microsoft nicht auszahlen würden.
Obwohl Blind anonym bleibt, lässt sich die Tatsache, dass es in zahlreichen Online-Beiträgen von kulturellen Problemen bei Microsoft in Redmond, Washington, berichtet, insbesondere davon, dass die oberste Führungsebene keinen Bezug zur tatsächlichen Arbeit hat und nur Projekte finanziert, die das KI-Label tragen, kaum ignorieren. In vielen Beiträgen drückt sich die Frustration über die „unsinnige Rhetorik“ von Microsoft-CEO Satya Nadella aus und beklagt den Mangel an Boni und Aufstiegsmöglichkeiten in einem Unternehmen, das sich darauf konzentriert, einem KI-Wahn nachzujagen, den es womöglich gar nicht gibt.
Zumindest ist erkennbar, dass innerhalb des Unternehmens eine tiefe kulturelle Traurigkeit herrscht. In vielen Posts heißt es: „Ich arbeite nicht gern hier“ und „Alle sind verwirrt, warum wir so viel in KI investieren“. Auf der anderen Seite haben sie aber das Gefühl, sie müssten es hinnehmen, weil es Satya Nadella überhaupt nicht interessiert.
Der Artikel von Information erwähnte, dass Microsoft ein besorgniserregendes Problem hat, das sich in der tatsächlichen Akzeptanzrate seiner KI-Funktion Office Copilot verbirgt: Microsoft hat in seinen Rechenzentren für 365 Copilot genügend Serverkapazität reserviert, um Millionen von täglichen Benutzern zu bedienen. Es ist jedoch nicht klar, wie diese Kapazität tatsächlich genutzt wird.
Schätzungen zufolge liegt die Zahl der aktuellen Office Copilot-Benutzer von Microsoft zwischen 400.000 und 4 Millionen. Das bedeutet, dass Microsoft möglicherweise eine große Menge ungenutzter Infrastruktur aufgebaut hat, die nicht voll ausgelastet ist.
Man könnte zwar argumentieren, dass sich Microsoft auf Grundlage der Erwartung zukünftigen Wachstums in dieser Produktkategorie positioniert, doch es lohnt sich, eine andere Möglichkeit in Betracht zu ziehen: Was, wenn dieses Wachstum nie eintritt? Was, wenn – so verrückt es auch klingen mag – Microsoft, Google und Amazon diese riesigen Rechenzentren bauen, um eine Nachfrage zu bedienen, die möglicherweise nie eintritt? Bereits im März dieses Jahres Ich betonte, dass ich kein Unternehmen finden konnte, das mit generativer KI ein signifikantes Umsatzwachstum erzielen könnte. Fast sechs Monate später ist die Frage immer noch offen. Der aktuelle Ansatz großer Unternehmen scheint darin zu bestehen, bestehende Produkte mit KI-Funktionen auszustatten, in der Hoffnung, auf diese Weise den Umsatz zu steigern, aber diese Strategie hat nirgends Erfolg gezeigt. Genau wie bei Microsoft scheinen die von ihnen auf den Markt gebrachten „KI-Upgrades“ dem Unternehmen keinen wirklichen Geschäftswert zu bringen.
Dies wirft eine größere Frage auf: Sind diese KI-Investitionen nachhaltig? Haben die Tech-Giganten die Nachfrage nach KI-Tools überschätzt?
Während einige Unternehmen mit der „Integration von KI“ einen Teil der Ausgaben für Microsoft Azure, Amazon AWS und Google Cloud vorantreiben, würde ich davon ausgehen, dass ein Großteil dieser Nachfrage von der Stimmung der Anleger getrieben wird. Diese Unternehmen „investieren in KI“ eher, um den Markt zufriedenzustellen, als auf der Grundlage von Kosten-Nutzen-Analysen oder tatsächlichem Nutzen.
Allerdings haben diese Unternehmen viel Zeit und Geld darauf verwendet, generative KI-Funktionen in ihre Produkte zu integrieren, und ich denke, sie könnten mit den folgenden Szenarien konfrontiert werden:
1. Diese Unternehmen entwickeln und bringen KI-Funktionen auf den Markt, stellen dann aber fest, dass die Kunden nicht bereit sind, dafür zu zahlen, wie Microsoft mit seinem 365 Copilot festgestellt hat. Wenn sie jetzt – während des KI-Hypes – keine Möglichkeit finden, die Kunden zum Bezahlen zu bewegen, werden sie nur noch angreifbarer, wenn der Hype vorbei ist und die Chefs ihre Mitarbeiter nicht mehr auffordern, „auf den KI-Zug aufzuspringen“.
2. Diese Unternehmen entwickeln und bringen KI-Funktionen auf den Markt, können aber keine Möglichkeit finden, die Benutzer dazu zu bewegen, dafür extra zu bezahlen. Das bedeutet, dass sie KI-Funktionen nur in bestehende Produkte einbetten können, ohne die Gewinnmargen zu erhöhen. Letztendlich könnten KI-Funktionen zu einem Parasiten werden, der den Umsatz des Unternehmens auffrisst.
Jim Covello von Goldman Sachs stellte in seinem Bericht über generative KI außerdem fest, dass die Konkurrenz dies auch kann, wenn der Nutzen von KI nur in der Effizienz liegt (wie etwa in der Möglichkeit, Dokumente schneller zu analysieren). Fast alle Integrationen generativer KI sind ähnlich: eine Art kollaborativer Assistent zur Beantwortung von Kunden- oder internen Fragen (wie Salesforce, Microsoft, Box), Inhaltserstellung (Box, IBM), Codegenerierung (Cognizant, Github Copilot) und die kommenden intelligenten Agenten, die eigentlich anpassbare Chatbots sind, die sich mit anderen Teilen der Website verbinden können.
Diese Frage offenbart eine der größten Herausforderungen der generativen KI: obwohl es bis zu einem gewissen Grad „leistungsstark“ ist, äußert sich diese Leistungsfähigkeit eher in der „Generierung von Inhalten auf der Grundlage vorhandener Daten“ und nicht in echter „Intelligenz“. Aus diesem Grund sind die Einführungsseiten zum Thema KI auf den Websites vieler Unternehmen voller leerer Worte, denn ihr größtes Verkaufsargument lautet eigentlich: „Äh … finden Sie es selbst heraus!“
Was mir Sorgen bereitet, ist ein Dominoeffekt. Ich glaube, dass viele Unternehmen KI gerade „testen“, und wenn diese Tests vorbei sind (Gartner prognostiziert, dass bis Ende 2025 30 % der generativen KI-Projekte nach der Proof-of-Concept-Phase abgebrochen werden), werden sie wahrscheinlich aufhören, für diese zusätzlichen Funktionen zu zahlen oder aufhören, generative KI in die Produkte ihres Unternehmens zu integrieren.
Sollte dies passieren, werden die bereits niedrigen Umsätze von Hyperscalern und großen Anbietern von Sprachmodellen wie OpenAI und Anthropic, die Cloud Computing für generative KI-Anwendungen anbieten, noch weiter sinken. Dies könnte den Preisdruck bei diesen Unternehmen weiter erhöhen, da ihre bereits verlustreichen Margen weiter sinken werden. An diesem Punkt werden OpenAI und Anthropic mit ziemlicher Sicherheit ihre Preise erhöhen müssen, falls sie dies nicht bereits getan haben.
Zwar können die großen Technologieunternehmen den Boom weiterhin finanzieren – sie haben ihn schließlich fast vollständig angeheizt –, doch den kleineren Startups, die sich an reduzierte Preise gewöhnt haben, hilft das nicht, weil sie ihren Betrieb nicht aufrechterhalten können. Zwar gibt es günstigere Alternativen, etwa unabhängige Anbieter, die das LLaMA-Modell von Meta betreiben, doch ist es schwer vorstellbar, dass diese nicht mit denselben Rentabilitätsproblemen konfrontiert werden wie die Hyperscaler.
Beachten Sie auch, dass die Hyperscaler große Angst davor haben, die Wall Street zu verärgern. Zwar könnten sie (wie ich befürchte) theoretisch ihre Margen durch Entlassungen und andere Kostensenkungsmaßnahmen verbessern, doch handelt es sich dabei um kurzfristige Lösungen, die nur funktionieren, wenn sie irgendwie etwas Geld aus diesem unfruchtbaren generativen KI-Baum herausholen können.
Ungeachtet dessen ist es an der Zeit zu akzeptieren, dass das Geld nicht da ist. Wir müssen innehalten und uns darüber im Klaren sein, dass wir uns in der dritten Ära der Illusion der Technologiebranche befinden. Anders als bei Kryptowährungen und dem Metaverse sind diesmal jedoch alle auf der Geldverbrennungstour und verfolgen ein nicht nachhaltiges, unzuverlässiges, unrentables und umweltschädliches Projekt, das als „künstliche Intelligenz“ verpackt und als etwas beworben wurde, das „alles automatisieren“ würde, aber nie einen Weg hatte, dieses Ziel tatsächlich zu erreichen.
Warum passiert das immer wieder? Warum sind wir von Kryptowährungen zum Metaversum und jetzt zur generativen KI übergegangen, also zu Technologien, die nicht wirklich für normale Menschen konzipiert zu sein scheinen?
Tatsächlich handelt es sich dabei um die natürliche Entwicklung einer Technologiebranche, die ganz auf die Steigerung des Werts ausgerichtet ist, den sie aus jedem Kunden zieht, statt den Kunden mehr Wert zu bieten. Oder anders gesagt: Sie verstehen nicht einmal wirklich, wer ihre Kunden sind und was sie brauchen.
Heutzutage versuchen die Produkte, die Ihnen angeboten werden, Sie mit ziemlicher Sicherheit in ein Ökosystem einzubinden – zumindest als Verbraucher, das von Microsoft, Apple, Amazon und Google kontrolliert wird. Dadurch wird es immer teurer, dieses Ökosystem zu verlassen. Sogar Kryptowährungen – angeblich eine „dezentralisierte“ Technologie – haben ihren Laissez-faire-Ethos schnell aufgegeben und stattdessen Nutzer über eine Handvoll großer Plattformen (wie Coinbase, OpenSea, Blur oder Uniswap) zusammengeführt, die oft von denselben Risikokapitalfirmen (z. B. Andreessen Horowitz) unterstützt werden. Anstatt zum Vorreiter einer neuen, völlig unabhängigen Online-Wirtschaft zu werden, konnten Kryptowährungen nur dank der Verbindungen und des Geldes wachsen, die auch andere Wellen des Internets finanzierten.
Was das Metaverse betrifft, so handelt es sich dabei zwar um einen Schwindel, aber es ist auch Mark Zuckerbergs Versuch, die nächste Generation des Internets zu kontrollieren, und er hofft, Horizon zur Hauptplattform zu machen. Was die generative KI betrifft, werden wir später darüber sprechen.
Es geht um weitere Monetarisierung – das heißt, den durchschnittlichen Wert jedes Kunden zu erhöhen, sei es dadurch, dass man die Kunden dazu bringt, die Plattform stärker zu nutzen, um mehr Werbung anzuzeigen, „halbwegs nützliche“ neue Funktionen zu vermarkten oder ein neues Monopol oder Oligopol zu schaffen, an dem sich nur die Technologiegiganten mit riesigen Finanzreserven beteiligen können, die den Kunden jedoch nur sehr wenig tatsächlichen Wert oder Nutzen bieten.
Generative KI ist (zumindest für einen bestimmten Personenkreis) deshalb so spannend, weil die Technologiegiganten darin den nächsten großen Geldbringer sehen, indem sie gebührenpflichtige Angebote für alles von der Verbrauchertechnologie bis zu Unternehmensdiensten hinzufügen. Der Großteil des generativen Computing fließt über OpenAI oder Anthropic zurück zu Microsoft, Amazon oder Google und generiert Cloud-Computing-Umsätze, die deren Wachstumsgeschichten am Laufen halten. Die größte Innovation hier ist nicht, was generative KI leisten kann, sondern die Schaffung eines Ökosystems, das hoffnungslos von einer Handvoll Hyperscale-Unternehmen abhängig ist.
Generative KI ist vielleicht nicht besonders praktisch, lässt sich aber sehr einfach in alle möglichen Produkte integrieren, sodass Unternehmen für diese „neuen Funktionen“ Geld verlangen können. Ob es sich nun um eine Verbraucher-App oder einen Dienst für ein Unternehmen für Unternehmenssoftware handelt, mit solchen Produkten lassen sich Millionen oder sogar Milliarden Dollar verdienen, indem man sie an so viele Kunden wie möglich verkauft.
Sam Altman war klug genug, um zu erkennen, dass die Technologiebranche etwas „Neues“ brauchte – eine neue Technologie, von der jeder etwas nehmen und sie verkaufen konnte. Auch wenn er die Technologie nicht vollständig verstand, verstand er doch das Wachstumsstreben des Wirtschaftssystems und entwickelte generative KI auf Basis der Transformer-Architektur zu einem „magischen Werkzeug“, das sich problemlos in die meisten Produkte integrieren ließ und einige einzigartige Funktionen mit sich brachte.
Der Ansturm, generative KI überall zu integrieren, offenbart jedoch eine enorme Diskrepanz zwischen diesen Unternehmen und den tatsächlichen Verbraucherbedürfnissen oder effektiv operierenden Unternehmen. In den letzten 20 Jahren schien es zu funktionieren, einfach „neue Dinge zu machen“ – neue Funktionen auf den Markt zu bringen und sie von Vertriebsteams hart verkaufen zu lassen, reichte aus, um das Wachstum aufrechtzuerhalten. Dies hielt die Branchenführer in einem toxischen und unrentablen Geschäftsmodell gefangen.
Die Führungskräfte dieser Unternehmen – fast alle MBAs und Unternehmensberater, die noch nie ein Produkt oder ein Technologieunternehmen von Grund auf aufgebaut haben – verstehen entweder nicht oder es ist ihnen egal, dass es für generative KI keinen Weg zur Profitabilität gibt, und denken wahrscheinlich, dass sie von selbst profitabel wird, so wie es Amazon Web Services (AWS) tat. (es dauerte 9 Jahre, bis das Unternehmen profitabel wurde) , obwohl es sich hierbei um zwei völlig unterschiedliche Dinge handelt. In der Vergangenheit hat es „einfach geklappt“, warum also jetzt nicht?
Neben der Tatsache, dass die steigenden Zinsen den Risikokapitalmarkt dramatisch verändert, die Kriegskassen der Risikokapitalgeber verkleinert und die Fondsgrößen geschrumpft haben, sind natürlich auch die Tatsache, dass die Einstellung gegenüber Technologie noch nie so negativ war, sowie eine Reihe weiterer Faktoren zu zahlreich, um sie in diesem 8.000 Wörter langen Artikel zu diskutieren, warum das Jahr 2024 ganz anders sein wird als 2014.
Was wirklich beunruhigend ist, ist, dass viele dieser Unternehmen außer KI keine neuen Produkte zu haben scheinen. Was haben sie sonst noch? Was können sie sonst noch nutzen, um weiter zu wachsen? Welche anderen Optionen haben sie?
Nein, sie haben nichts. Und das ist das Problem, Denn wenn die KI scheitert, werden die Auswirkungen unweigerlich auch andere Unternehmen der gesamten Technologiebranche zu spüren bekommen.
Jeder große Tech-Player – sowohl im Verbraucher- als auch im Unternehmensbereich – verkauft irgendeine Art von KI-Produkt, das große Sprachmodelle oder eigene Modelle integriert und oft in der Cloud auf den Systemen der Big Techs läuft. Bis zu einem gewissen Grad sind diese Unternehmen von der Bereitschaft der Big Techs abhängig, die gesamte Branche zu subventionieren.
Ich vermute, dass sich eine Subprime-KI-Krise zusammenbraut, in die fast die gesamte Tech-Industrie verstrickt ist – eine Technologie, die zu Spottpreisen verkauft wird, stark zentralisiert ist und von den großen Technologieunternehmen subventioniert wird. Irgendwann wird die alarmierende und schädliche Geschwindigkeit, mit der generative KI Geld verbrennt, sie einholen. Das wird zu Preiserhöhungen führen oder dazu, dass Unternehmen neue Produkte und Funktionen auf den Markt bringen, die so viel kosten – wie etwa $2 pro Gespräch bei Salesforce für sein Produkt „Agentforce“ –, dass selbst Unternehmenskunden mit ausreichenden Budgets die Kosten nicht rechtfertigen können.
Was passiert, wenn die gesamte Tech-Industrie von einer Software abhängig wird, die nur Verluste macht und für sich genommen keinen großen realen Wert hat? Was passiert, wenn der Druck zu groß wird, diese KI-Produkte nicht mehr miteinander vereinbar sind und diese Unternehmen nichts mehr zu verkaufen haben?
Ich weiß es wirklich nicht, aber die Technologiebranche steuert auf eine schreckliche Abrechnung zu: einen Mangel an Kreativität, begünstigt durch ein wirtschaftliches Umfeld, das Wachstum statt Innovation, Monopol statt Loyalität und Management statt tatsächlicher Schöpfung belohnt.
Dieser Artikel stammt aus dem Internet: Subprime AI Crisis: Revisiting Crypto x AI
Laut unvollständigen Statistiken von Odaily Planet Daily wurden vom 2. bis 8. September 19 Blockchain-Finanzierungsereignisse im In- und Ausland angekündigt, ein deutlicher Rückgang gegenüber den Daten der letzten Woche (29 Ereignisse). Die Gesamtsumme der angekündigten Finanzierungen betrug ungefähr 10.4074 Millionen US-Dollar, ein deutlicher Rückgang gegenüber den Daten der letzten Woche (10.203 Millionen US-Dollar). Letzte Woche war das Projekt, das die meisten Investitionen erhielt, das Web3-Sicherheitsunternehmen Hypernative (10.16 Millionen US-Dollar); dicht dahinter folgte die Web3-E-Zigarette Puffpaw (10.6 Millionen US-Dollar). Im Folgenden sind spezifische Finanzierungsereignisse aufgeführt (Hinweis: 1. Sortieren nach angekündigtem Geldbetrag; 2. Ausgeschlossen sind Mittelbeschaffungs- und MA-Ereignisse; 3. * zeigt ein traditionelles Unternehmen an, dessen Geschäft Blockchain umfasst): Das Web3-Sicherheitsunternehmen Hypernative schließt eine von Quantstamp angeführte Finanzierung der Serie A in Höhe von 10.16 Millionen US-Dollar ab. Am 3. September kündigte das Web3-Sicherheitsunternehmen Hypernative an…