Home » Aktuelle Nachrichten » Zweijähriger Boom der KI: Hat die Technologie die Herausforderungen der Kommerzialisierung gelöst?
Illustration der KI-Technologie mit digitalen Elementen.

Zweijähriger Boom der KI: Hat die Technologie die Herausforderungen der Kommerzialisierung gelöst?

Seit dem Aufkommen von ChatGPT hat der KI-Boom zwei Jahre gedauert. In dieser Zeit war die breite Öffentlichkeit von den Fähigkeiten großer Sprachmodelle begeistert, die aus einfachen Befehlen flüssigen und natürlichen Text generieren und Science-Fiction-Szenarien in die Realität umsetzen können.

Auch der Bereich der großen Modelle tritt in eine kritische Phase ein, in der neue Technologien in neue, den tatsächlichen Bedarf entsprechende Produkte umgesetzt werden müssen und sich zu einem neuen kommerziellen Ökosystem entwickeln müssen.

So wie mobile Zahlungen, Smartphones und LTE gemeinsam den Wohlstand des mobilen Internetzeitalters befeuert haben, strebt auch die KI-Branche im Jahr 2024 nach einer solchen Produkt-Markt-Passung (PMF).

Das Zeitalter der Erforschung neuer Technologien hat begonnen, und ob neue Grenzen entdeckt werden können, wird darüber entscheiden, ob große Modelle nur ein weiteres Kapitalverbrennungsspiel, eine Wiederholung der Internetblase oder, wie Jensen Huang sagte, der Beginn einer neuen industriellen Revolution sind. Diese Antwort wird schneller offenbart werden als die künstliche allgemeine Intelligenz (AGI).

Die großen Probleme mit großen Modellen

Heute hat sich der Wettbewerb bei grundlegenden Modellen im Wesentlichen stabilisiert. Angeführt von OpenAI, wobei ChatGPT fest die Marktführerschaft innehat, haben andere Akteure wie Anthropic, DeepMind, Llama und Grok jeweils ihre Stärken.

Daher ist das Spannendste im Jahr 2024 nicht, wer die Parameter erweitert oder die Reaktionsgeschwindigkeit verbessert, sondern wie aus der Technologie großer Modelle ein nutzbares Produkt werden kann.

Die Anwendung großer Sprachmodelltechnologie war von Anfang an eine Herausforderung. Die Harvard Business Review führte eine Umfrage durch und fand heraus, dass es bis zu 100 Arten von generativen KI-Anwendungen gibt.

Diagramm zur Kategorisierung von KI-Anwendungen in fünf Haupttypen.

Sie lassen sich jedoch in fünf Hauptkategorien einteilen: technische Problemlösung, Inhaltserstellung und -bearbeitung, Kundensupport, Lernen und Bildung sowie künstlerisches Schaffen und Forschung.

Die bekannte Investmentfirma a16z hat die besten generativen KI-Produkte ihres Teams vorgestellt, darunter bekannte Namen wie Perplexity, Claude und ChatGPT. Es gibt auch Nischenprodukte wie die Notiz-Apps Granola, Wispr Flow, Every Inc. und Cubby. Im Bildungssektor war NotebookLM der größte Gewinner des Jahres 2024, zusammen mit Chatbots wie Character.ai und Replika.

Für normale Benutzer sind die meisten dieser Produkte kostenlos und Abonnements oder professionelle Versionen sind keine notwendigen Ausgaben. Selbst für einen starken Player wie ChatGPT betrugen die Abonnementeinnahmen im Jahr 2024 etwa 283 Millionen US-Dollar pro Monat und verdoppelten sich damit gegenüber 2023. Angesichts der enormen Kosten scheinen diese Einnahmen jedoch unbedeutend.

Der technologische Fortschritt ist für normale Benutzer eine Freude, aber für Branchenexperten gilt: Egal, wie aufregend die technologische Entwicklung auch sein mag, sie kann nicht im Labor bleiben; sie muss in die kommerzielle Welt getragen und getestet werden. Das Abonnementmodell hat sich noch nicht weithin durchgesetzt und die Zeit für die Einbettung von Werbung ist noch nicht gekommen. Den großen Modellen läuft die Zeit davon, Geld zu verbrennen.

Erfolgversprechender ist dagegen eine geschäftsorientierte Entwicklung.

Seit 2018 hat sich die Erwähnung von KI in Telefonkonferenzen zu den Quartalsergebnissen der Fortune 500-Unternehmen fast verdoppelt. In allen Telefonkonferenzen zu den Quartalsergebnissen wird generative KI in 19.7 % der Fälle als das am häufigsten diskutierte Thema genannt.

Dies ist auch der Konsens der gesamten Branche. Laut dem von der China Academy of Information and Communications Technology veröffentlichten Blue Book „Artificial Intelligence Development Report (2024)“ werden bis 2026 über 80 % der Unternehmen generative KI-APIs verwenden oder generative Anwendungen einsetzen.

Anwendungen für Unternehmen und Verbraucher weisen unterschiedliche Entwicklungstrends auf: Bei verbraucherorientierten Anwendungen stehen niedrige Hürden und Kreativität im Vordergrund, während bei unternehmensorientierten Anwendungen der Schwerpunkt eher auf professioneller Anpassung und Effizienz-Feedback liegt.

Mit anderen Worten: Jedes Unternehmen strebt nach Effizienzsteigerung und möchte diese erreichen, aber diese vier Worte allein zu verwenden, ist zu vage. Große Modelle müssen beweisen, dass sie in Anwendungsfällen tatsächlich Probleme lösen und die Effizienz wirklich steigern können.

Präzise Einstiegspunkte für die Technologieimplementierung finden

Ob es nun um Ressourceninvestitionen oder Marktexpansionsbemühungen geht, der Wettbewerb in China bei großen Modellen war das ganze Jahr 2024 über intensiv.

Nach Angaben des chinesischen Ministeriums für Industrie und Informationstechnologie überstieg die Wachstumsrate des chinesischen Marktes für große Sprachmodelle im Jahr 2023 100 % und erreichte etwa 2 Milliarden US-Dollar. Unternehmen experimentieren aktiv mit der Kommerzialisierung und liefern sich zunächst Preiskämpfe: Sie senken die Kosten durch tokenbasierte Abrechnung, API-Aufrufe und andere Methoden. Viele gängige große Modelle sind mittlerweile fast kostenlos.

Eine Senkung der Preise und Kosten ist relativ einfach zu erreichen. Das Geschäft zu verstehen und Markteintrittsszenarien zu analysieren ist jedoch ein anspruchsvollerer Weg.

Nicht alle Unternehmen beteiligen sich am Preiskampf und setzen auf den Billigwettbewerb.

„In dieser Situation ist es wichtiger, unsere einzigartigen Merkmale zu finden und unsere Stärken zu nutzen. Tencent verfügt über viele interne Szenarien, die uns mehr Einblicke bieten und unsere Fähigkeiten weiter verbessern“, sagte Zhao Xinyu, KI-Produktspezialist bei Tencent Cloud und Leiter von Tencent Hunyuan ToB Products. „Extern konzentrieren wir uns auf eine Branche, konzentrieren uns auf bestimmte Szenarien innerhalb dieser Branche und expandieren dann schrittweise.“

Unter den vielen grundlegenden Modellen ist Hunyuan vielleicht nicht das auffälligste, aber seine technische Stärke ist unbestreitbar.

Im September 2023 veröffentlichte Hunyuan das allgemeine Text-zu-Text-Modell Hunyuan Turbo, das eine neue Mixture of Experts (MoE)-Struktur einführte. Es zeigte gute Ergebnisse beim Sprachverständnis und der Sprachgenerierung, beim logischen Denken, bei der Absichtserkennung sowie bei Codierungs-, Langkontext- und Aggregationsaufgaben. In der dynamischen Update-Version vom November 2023 wurde es zum leistungsstärksten Modell in allen Bereichen aufgewertet. Derzeit werden die Funktionen von Tencent Hunyuan vollständig über Tencent Cloud bereitgestellt und bieten Modelle verschiedener Größen und Typen, kombiniert mit anderen KI-Produkten und -Funktionen von Tencent Cloud Intelligence, um Modellanwendungen dabei zu unterstützen, in Szenarien zu landen.

Hunyuan Turbo-Modellschnittstelle mit technischen Details und Leistungsmetriken.

Derzeit werden die Anwendungsformen von Modellen grob in zwei Typen unterteilt: ernsthafte Szenarien und Unterhaltungsszenarien. Zu letzteren gehören Chatbots, Begleit-Apps usw.

„Seriöse Szenarien“ beziehen sich auf Anwendungen im Kerngeschäft von Unternehmen, bei denen Genauigkeit und Zuverlässigkeit höchste Anforderungen stellen. In diesen Szenarien müssen große Modelle strukturierte Informationen verarbeiten, normalerweise nach voreingestellten Geschäftsprozessen und Qualitätsstandards, und ihre Anwendungseffekte stehen in direktem Zusammenhang mit der Betriebseffizienz und den Geschäftsergebnissen von Unternehmen.

Tencent Cloud hat einmal einem Outbound-Dienstanbieter beim Aufbau eines Kundendienstsystems geholfen, was ein typisches, ernstes Szenario darstellt. Outbound-Anrufe umfassen Dialogfunktionen in natürlicher Sprache, Inhaltsverständnis und Analysefunktionen, die in hohem Maße mit großen Sprachmodellen kompatibel sind.

Tatsächlich liegt die Herausforderung im Detail. Damals stand das Team vor zwei zentralen Herausforderungen. Eine davon waren Leistungsprobleme, da die Parametergröße des Modells enorm war und eine Größenordnung von 70 bis 300 Milliarden erreichte. Die Frage, wie die Antwort innerhalb von 500 Millisekunden fertiggestellt und an das nachgelagerte TTS-System weitergegeben werden konnte, wurde zu einer wichtigen technischen Herausforderung.

Das zweite Problem war die Genauigkeit der Dialoglogik. Das Modell erzeugte in einigen Dialogen manchmal unlogische Antworten, was sich auf die Gesamtwirkung des Dialogs auswirkte. Um diese Herausforderungen zu bewältigen, setzte das Projektteam auf eine intensive Iterationsstrategie und hielt innerhalb eines Entwicklungszyklus von 1–2 Monaten ein schnelles Iterationstempo von einer Version pro Woche ein.

Unternehmenskunden zeigen Interesse an Big Language Model-Technologie und sind bereit, Innovationen auszuprobieren, aber es gibt immer eine kognitive Lücke bei der tiefen Integration von Technologie und Geschäft. Dies liegt nicht daran, dass Unternehmen ihr eigenes Geschäft nicht verstehen, sondern erfordert ein professionelles technisches Team, das die Schwachstellen und Geschäftsszenarien der Branche genau versteht, die am besten geeigneten Szenarien findet, maßgeschneiderte KI-Landing-Lösungen für Unternehmen entwickelt und die beste Kombination aus Technologie und Geschäft erreicht.

„Beim herkömmlichen Ansatz müssen die Betreiber möglicherweise jeweils ein Szenario (Korpora) erstellen“, erläuterte Xinyu, „bei großen Modellen genügt jedoch eine Eingabeaufforderung, um die Nachfrage zu decken.“ Nachdem die Nachfrage geklärt war, aktualisierte das Hunyuan-Team beinahe wöchentlich eine Version, wodurch die Iterationsgeschwindigkeit beschleunigt wurde, und innerhalb von ein bis zwei Monaten erreichte die Genauigkeit 95 %.

Für diesen Outbound-Dienstleister war die generative Technologie völlig neu. Hunyuan zeigte ihnen direkt die Vorteile großer Modelle, die den Personalaufwand um drei Viertel senken.

„Der beste Ansatz besteht darin, die Auswirkungen zu demonstrieren“, sagte Xinyu. Wenn Kunden ein gewisses, aber kein umfassendes Verständnis von generativer Technologie haben, ist es am effektivsten, die Auswirkungen zu demonstrieren. Indem man Szenarien findet, die durch die Geschäftserfahrung des Kunden umgesetzt werden können, direkt Testüberprüfungen durchführt und die Verbesserungen demonstriert, die erzielt werden können.

Eine ähnliche Erfahrung wurde bei der Kooperation mit Xiaomi gemacht, die als „Reise in beide Richtungen“ beschrieben wurde.

Die andere Partei wollte große Modelle in Q&A-Interaktionen einführen und dabei KI-Suchfunktionen auf Terminals anwenden. Dies traf zwei Stärken von Hunyuan: die Unterstützung durch Tencents reichhaltiges Content-Ökosystem und Hunyuans Fähigkeiten bei der KI-Suche. Bei Q&A ist Genauigkeit sehr wichtig.

„Am Anfang gab es noch viele Schwierigkeiten“, erinnert sich Xinyu. „Aus ihrer Sicht umfasste das Geschäftsformular mehrere Szenarien, darunter zwangloses Chatten, Wissensfragen und -antworten und andere, wobei das Wissensfragen- und -antworten-Szenario relativ hohe Genauigkeitsanforderungen hatte.“

Durch vorläufige Tests konnte das Hunyuan-Team seine Vorteile in Suchszenarien verdeutlichen und gemeinsam mit der anderen Partei die breit definierte Q&A-Interaktion schrittweise entsprechend unterschiedlicher Themenebenen verfeinern. Diese Art der Segmentierung ermöglicht es dem Modell, die spezifischen Anforderungen und Wirkungsanforderungen jedes Szenarios klarer zu verstehen und so eine gezieltere Optimierung durchzuführen.

Das Wissens-Q&A-Szenario wurde zum Landepunkt. Bei nachfolgenden Implementierungen musste Hunyuan noch viele Herausforderungen bewältigen: Latenzprobleme müssen nicht erwähnt werden, die Reaktionszeit muss schnell sein; zweitens die Integration von Suchinhalten.

„Im gesamten Link haben wir eine selbst entwickelte Suchmaschine und ein Intent-Klassifizierungsmodell erstellt, um zu bestimmen, ob es sich um eine hochaktuelle Frage handelt. Zum Beispiel, ob sie sich auf Nachrichten oder aktuelle Themen bezieht, und dann zu entscheiden, ob sie dem Hauptmodell oder der KI-Suche übergeben wird.“

Wenn nur die am meisten benötigten Teile aufgerufen werden, verbessert sich die Reaktionsgeschwindigkeit erheblich. Eine wichtige Entdeckung ist, dass 70 % der Anfragen zu einer KI-Suche führen, was bedeutet, dass ausreichend umfangreiche Inhalte als grundlegendste Anrufunterstützung vorhanden sein müssen. 

Hinter Hunyuan verbirgt sich das gesamte Tencent-Content-Ökosystem. Von Nachrichten, Musik, Finanzen bis hin zu Gesundheitsthemen bietet das Tencent-Ökosystem eine Fülle hochwertiger Inhalte. Diese Inhalte sind über das Hunyuan-Modell bei Suchanfragen zugänglich und referenzierbar, was einen einzigartigen Vorteil bietet.

Nach mehr als zwei Monaten intensiver Iteration haben die Antwortqualität, Reaktionsgeschwindigkeit und Leistung die Anforderungen vollständig erfüllt und wurden in den tatsächlichen Geschäftsbetrieb von Xiaomi implementiert.

Der Schlüssel zum B2B-Geschäft liegt in der Umsatzgenerierung und dem Gewinnen von Vertrauen, wozu es erforderlich ist, einen echten Mehrwert für die Geschäftstätigkeit der Kunden zu schaffen.

„Roll“-Generalisierung, um mehr Szenarien abzudecken

Die branchen- und produktübergreifende Anwendung großer Modelle fördert auch das Wachstum der Technologie selbst.

Bei einigen großen Modellprodukten ist bei der Entscheidung für den B2C-Pfad eine zentrale Überlegung erforderlich: die Nutzung von Verbraucherfeedback zur Optimierung des Modells. Der Bedarf an der Feinabstimmung großer Modelle ist endlos, und die Anzahl und Aktivität der Verbraucherbenutzer liefern den Treibstoff für die Modelliteration und beschleunigen so die Iterationsgeschwindigkeit.

Tatsächlich wird dies auch im B2B-Geschäft erreicht, wobei die Anforderungen sogar noch höher sind.

Die K12-Bewertungsfunktion für chinesische Aufsätze von „Teenager Gains“ nutzt die multimodalen Fähigkeiten von Hunyuan. In Kombination mit der intelligenten OCR-Technologie von Tencent Cloud erkennt sie den Inhalt der Aufsätze der Schüler und verwendet das große Modell, um die Aufsätze anhand voreingestellter Bewertungsstandards zu bewerten.

Wenn der Punkteunterschied zwischen dem großen Modell und einem menschlichen Lehrer im Bereich von fünf Punkten liegt, gilt dies normalerweise als gut – aber das ist nicht leicht zu erreichen. Anfangs lagen nur 80 % der Ergebnisse von Hunyuan im Bereich von fünf Punkten gegenüber den Ergebnissen menschlicher Lehrer.

„Das Modell verfügt über bestimmte Methoden und Fähigkeiten, um Probleme in einigen Szenarien zu lösen. Wenn man sich jedoch auf das Geschäft eines bestimmten Kunden konzentriert, ist eine höhere Leistung erforderlich“, sagte Xinyu. „Während eine Genauigkeit von 90 % die Geschäftsziele erfüllen könnte, besteht bei 70 % oder 80 % immer noch eine Lücke.“

Dies bedeutet, dass weitere Anstrengungen erforderlich sind. Mit der Erweiterung des Unternehmenskundenstamms werden neue Anforderungen an die Technologie selbst gestellt: Erstens eine deutliche Erhöhung der Iterationsgeschwindigkeit – Iterationen für Privatanwender dauern möglicherweise ein bis zwei Monate, jetzt kann jedoch wöchentlich eine neue Version erscheinen. Diese hochfrequente Iteration fördert das Modellwachstum und den Fortschritt erheblich.

Zweitens hat die kontinuierliche Bedienung verschiedener Unternehmensszenarien die Generalisierungsfähigkeit des Modells erheblich verbessert. Dies deutet darauf hin, dass die umfassende Bedienung unterschiedlicher Unternehmensanforderungen nicht nur das Tempo der Modellentwicklung und -iteration beschleunigt, sondern auch die Praktikabilität und Anpassungsfähigkeit des Modells verbessert, sodass es von ernsthaften Szenarien auf eher unterhaltungsorientierte Szenarien ausgeweitet werden kann.

Die Rollenspiel-Content-Plattform „Dream Dimension“, die sich kürzlich in der Serie-A-Finanzierung mehrere zehn Millionen gesichert hat, hat das exklusive Rollenspielmodell Hunyuan-role des großen Hunyuan-Modells angewendet, das sich an junge Benutzer richtet. Es kombiniert generative KI-Technologie, um ein interaktives, storybasiertes virtuelles Charakter-Interaktionserlebnis zu bieten.

Hunyuan-role hat eine neue Form der Mensch-Computer-Interaktion entwickelt. Durch die Erstellung vielfältiger virtueller Charakterbilder und basierend auf voreingestellten Story-Hintergründen und Charaktereinstellungen werden Benutzer in natürliche und reibungslose interaktive Dialoge verwickelt.

Auf technischer Ebene haben solche Szenarioanwendungen die führenden Vorteile der Hunyuan-Rolle bei der Handhabung langer und kurzer Textdialoge, der Absichtserkennung und der Reaktion demonstriert. Sie kann verschiedene Anwendungsszenarien handhaben und weist hervorragende Fähigkeiten zur Humanisierung von Inhalten auf – sie ermöglicht nicht nur herzliche Dialoginteraktionen, sondern auch die Weiterentwicklung von Handlungssträngen, um ein umfassendes Benutzererlebnis zu schaffen.

Diese Funktionen machen Hunyuan-Role zu einem leistungsstarken Tool für die Produktkundengewinnung und Benutzeroperationen und spielen eine entscheidende Rolle bei der Verbesserung der Benutzerbindung und -einbindung. Es zeigt auch, dass Hunyuan, das in ernsthaften Szenarien verfeinert und verbessert wurde, Generalisierungsfunktionen entwickelt hat, die breitere Szenarien abdecken können, sogar in Endanwendungen.

Die Ausweitung von ernsten Szenarien auf Unterhaltung, Kreativität und mehr ist eine Reise, die große Modellanwendungen unternehmen müssen.

Mit zunehmender Weiterentwicklung der Technologie und sinkenden Kosten werden große Modelle zwangsläufig in breitere Anwendungsszenarien ausgeweitet. Ursprünglich auf ernsthafte Geschäftsszenarien wie Büroarbeit in Unternehmen, Datenanalyse und wissenschaftliche Forschung ausgerichtet, haben diese Bereiche klare Anforderungen und eine höhere Zahlungsbereitschaft.

Für eine weitere Expansion in die Bereiche Unterhaltung, Kreativität und Inhaltsproduktion ist ein strategischer Anker erforderlich: Der Fokus muss stets auf der Lösung spezifischer Szenarioanforderungen liegen und der Einstiegspunkt für die Integration großer Modellfunktionen genau bestimmt werden.

Neben der Zusammenarbeit mit Anwendungssoftware sind auch Partnerschaften mit Hardwareherstellern erforderlich, um die Leistung und Funktion des Modells auf der verbraucherorientierten Seite zu gewährleisten und Dienste bereitzustellen, die näher am Alltag der Benutzer liegen und bequemere, unmittelbarere Serviceerlebnisse bieten.

In diesem Prozess nehmen das Marktbewusstsein und die Akzeptanz der generativen KI-Technologie kontinuierlich zu und die Nutzerbasis wächst stetig. Angesichts dieses sich schnell verändernden Marktumfelds wird die Iterationsfähigkeit des Modells besonders wichtig. Dies spiegelt sich nicht nur in der technischen Leistung wider, sondern auch im Verständnis der Benutzeranforderungen, der Anpassung an unterschiedliche Szenarien und mehr. Nur Modelle und Teams, die schnell lernen, kontinuierlich optimieren und sich ständig an neue Anforderungen anpassen können, können einen Wettbewerbsvorteil aufrechterhalten.

Da kontinuierlich mehr Szenarien abgedeckt werden, erweitert sich auch die Reichweite zu mehr Endverbrauchern. Mit der allgemeinen Akzeptanz der generativen Technologie auf dem Markt wird die potenzielle Benutzerbasis weiter wachsen. Ein Modell, das schnell iterieren und sich selbst verbessern kann, kann sich problemlos an Änderungen anpassen und sich stetiger und weiter entwickeln.

Quelle aus wenn ein

Haftungsausschluss: Die oben aufgeführten Informationen werden von ifanr.com unabhängig von Chovm.com bereitgestellt. Chovm.com übernimmt keine Zusicherungen und Gewährleistungen hinsichtlich der Qualität und Zuverlässigkeit des Verkäufers und der Produkte. Chovm.com lehnt ausdrücklich jegliche Haftung für Verstöße gegen das Urheberrecht von Inhalten ab.

Hinterlasse einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *

Nach oben scrollen