Casa » Notizie » Boom biennale dell'intelligenza artificiale: la tecnologia ha risolto le sfide della commercializzazione?
Illustrazione della tecnologia AI con elementi digitali.

Boom biennale dell'intelligenza artificiale: la tecnologia ha risolto le sfide della commercializzazione?

Dall'emergere di ChatGPT, il boom dell'intelligenza artificiale è durato due anni. Durante questo periodo, il pubblico in generale è stato elettrizzato dalle capacità dei grandi modelli linguistici, che possono generare testo fluido e naturale da semplici comandi, trasformando scenari di fantascienza in realtà.

Anche il settore dei grandi modelli sta entrando in una fase critica, in cui le nuove tecnologie devono essere trasformate in nuovi prodotti che rispondano a esigenze reali e si sviluppino in un nuovo ecosistema commerciale.

Proprio come i pagamenti tramite dispositivi mobili, gli smartphone e l'LTE hanno alimentato collettivamente la prosperità dell'era di Internet mobile, anche il settore dell'intelligenza artificiale è alla ricerca di un adattamento prodotto-mercato (PMF) nel 2024.

L'era dell'esplorazione di nuove tecnologie è iniziata e se una nuova frontiera potrà essere scoperta determinerà se i grandi modelli sono solo un altro gioco di capitale che brucia denaro, una replica della bolla di Internet o, come ha detto Jensen Huang, l'inizio di una nuova rivoluzione industriale. Questa risposta sarà rivelata più velocemente dell'intelligenza artificiale generale (AGI).

I grandi problemi dei modelli di grandi dimensioni

Oggi, la competizione nei modelli fondazionali si è sostanzialmente stabilizzata. Guidata da OpenAI, con ChatGPT che detiene saldamente la leadership di mercato, altri attori come Anthropic, DeepMind, Llama e Grok hanno ciascuno i loro punti di forza.

Pertanto, la cosa più entusiasmante del 2024 non sarà chi avrà ampliato i parametri o migliorato la velocità di risposta, ma come la tecnologia dei modelli di grandi dimensioni potrà trasformarsi in un prodotto utilizzabile.

Fin dall'inizio, applicare la tecnologia dei modelli linguistici di grandi dimensioni è stata una sfida. Harvard Business Review ha condotto un sondaggio e ha scoperto che ci sono fino a 100 tipi di applicazioni di IA generativa.

Grafico che classifica le applicazioni di intelligenza artificiale in cinque tipologie principali.

Tuttavia, rientrano in cinque categorie principali: risoluzione di problemi tecnici, produzione e modifica di contenuti, assistenza clienti, apprendimento e istruzione, creazione e ricerca artistica.

La nota società di investimenti a16z ha condiviso i migliori prodotti di intelligenza artificiale generativa del suo team, tra cui nomi noti come Perplexity, Claude e ChatGPT. Ci sono anche prodotti più di nicchia come le app per prendere appunti Granola, Wispr Flow, Every Inc. e Cubby. Nel settore dell'istruzione, il vincitore più grande del 2024 è stato NotebookLM, insieme a chatbot come Character.ai e Replika.

Per gli utenti ordinari, la maggior parte di questi prodotti è gratuita e le versioni in abbonamento o professionali non sono spese necessarie. Anche per un player forte come ChatGPT, i ricavi da abbonamento nel 2024 sono stati di circa 283 milioni di dollari al mese, raddoppiando rispetto al 2023. Ma di fronte a costi enormi, questo reddito sembra insignificante.

Godersi i progressi tecnologici è una gioia per gli utenti comuni, ma per i professionisti del settore, non importa quanto sia entusiasmante l'evoluzione tecnologica, non può rimanere in laboratorio; deve entrare nel mondo commerciale per essere testata. Il modello di abbonamento non è stato ampiamente accettato e non è ancora arrivato il momento di incorporare annunci pubblicitari. Il tempo rimasto ai grandi modelli per bruciare denaro sta per scadere.

Al contrario, lo sviluppo orientato al business è più promettente.

Dal 2018, la menzione dell'IA nelle conference call sui risultati di Fortune 500 è quasi raddoppiata. In tutte le conference call sui risultati, il 19.7% dei record menziona l'IA generativa come argomento più discusso.

Questo è anche il consenso dell'intero settore. Secondo il libro blu "Artificial Intelligence Development Report (2024)" pubblicato dalla China Academy of Information and Communications Technology, entro il 2026, oltre l'80% delle aziende utilizzerà API di intelligenza artificiale generativa o implementerà applicazioni generative.

Le applicazioni per aziende e consumatori mostrano tendenze di sviluppo diverse: le applicazioni rivolte ai consumatori puntano su basse barriere e creatività, mentre le applicazioni rivolte alle aziende si concentrano maggiormente sulla personalizzazione professionale e sul feedback sull'efficienza.

In altre parole, migliorare l'efficienza è qualcosa che ogni azienda persegue e vuole raggiungere, ma dire solo queste quattro parole è troppo vago. I modelli di grandi dimensioni devono dimostrare di poter risolvere realmente i problemi nei casi d'uso e migliorare realmente l'efficienza.

Trovare con precisione i punti di ingresso per implementare la tecnologia

Sia in termini di investimenti in risorse che di sforzi di espansione del mercato, la concorrenza della Cina sui modelli di grandi dimensioni è stata intensa per tutto il 2024.

Secondo i dati del Ministero dell'Industria e dell'Informazione Tecnologica cinese, il tasso di crescita del mercato cinese dei grandi modelli linguistici nel 2023 ha superato il 100%, raggiungendo circa 2 miliardi di $. Le aziende stanno sperimentando attivamente la commercializzazione, inizialmente impegnandosi in guerre di prezzo: riducendo i costi tramite fatturazione basata su token, chiamate API e altri metodi. Molti grandi modelli mainstream sono ora quasi gratuiti.

Abbassare prezzi e costi è relativamente facile da ottenere. Tuttavia, comprendere il business e analizzare gli scenari di ingresso è un percorso più impegnativo.

Non tutte le aziende partecipano alla guerra dei prezzi, puntando sulla concorrenza a basso costo.

"In questa situazione, è più importante trovare le nostre caratteristiche uniche e sfruttare i nostri punti di forza. Tencent ha molti scenari interni che ci forniscono maggiori approfondimenti e migliorano ulteriormente le nostre capacità", ha affermato Zhao Xinyu, AI Product Specialist presso Tencent Cloud e Head of Tencent Hunyuan ToB Products. "Esternamente, ci concentriamo su un settore, ci concentriamo su scenari specifici all'interno di quel settore e poi ci espandiamo gradualmente".

Tra i tanti modelli fondamentali, Hunyuan potrebbe non essere quello che cattura di più l'attenzione, ma la sua forza tecnica è innegabile.

A settembre 2023, Hunyuan ha rilasciato il modello generale text-to-text Hunyuan Turbo, adottando una nuova struttura Mixture of Experts (MoE). Ha funzionato bene nella comprensione e generazione del linguaggio, nel ragionamento logico, nel riconoscimento dell'intento, nonché nelle attività di codifica, contesto lungo e aggregazione. Nella versione di aggiornamento dinamico di novembre 2023, è stato aggiornato al modello più performante in assoluto. Attualmente, le capacità di Tencent Hunyuan vengono fornite completamente tramite Tencent Cloud, offrendo varie dimensioni e tipologie di modelli, combinati con altri prodotti e capacità AI di Tencent Cloud Intelligence, per aiutare le applicazioni modello ad atterrare negli scenari.

Interfaccia del modello Hunyuan Turbo con dettagli tecnici e parametri prestazionali.

Attualmente, i moduli di domanda dei modelli sono grosso modo divisi in due tipologie: scenari seri e scenari di intrattenimento. Questi ultimi includono chatbot, app di accompagnamento, ecc.

Gli "scenari seri" si riferiscono alle applicazioni nelle operazioni aziendali principali delle imprese, in cui accuratezza e affidabilità sono altamente richieste. In questi scenari, i modelli di grandi dimensioni devono gestire informazioni strutturate, solitamente seguendo processi aziendali preimpostati e standard di qualità, e i loro effetti applicativi sono direttamente correlati all'efficienza operativa e ai risultati aziendali delle imprese.

Tencent Cloud una volta ha aiutato un fornitore di servizi in uscita a creare un sistema di assistenza clienti, che è un tipico scenario serio. Le chiamate in uscita implicano capacità di dialogo in linguaggio naturale, comprensione dei contenuti e capacità di analisi, che sono altamente compatibili con modelli linguistici di grandi dimensioni.

In effetti, la sfida sta nei dettagli. A quel tempo, il team si è trovato di fronte a due sfide fondamentali. Una era rappresentata dai problemi di prestazioni, poiché la dimensione dei parametri del modello era enorme, raggiungendo una scala di 70B o 300B, e come completare la risposta entro 500 millisecondi e passarla al sistema TTS a valle è diventata un'importante sfida tecnica.

La seconda era l'accuratezza della logica del dialogo. Il modello a volte produceva risposte illogiche in alcuni dialoghi, influenzando l'effetto complessivo del dialogo. Per superare queste sfide, il team di progetto ha adottato una strategia di iterazione intensiva, mantenendo un ritmo di iterazione rapido di una versione a settimana entro un ciclo di sviluppo di 1-2 mesi.

I clienti aziendali mostrano interesse per la tecnologia dei modelli linguistici di grandi dimensioni e sono disposti a provare innovazioni, ma c'è sempre un divario cognitivo nella profonda integrazione di tecnologia e business. Ciò non deriva da una mancanza di comprensione del proprio business da parte delle aziende, ma richiede un team tecnico professionale per comprendere a fondo i punti deboli del settore e gli scenari aziendali, trovare gli scenari più adatti, personalizzare le soluzioni di atterraggio AI per le aziende e ottenere la migliore combinazione di tecnologia e business.

"L'approccio tradizionale potrebbe richiedere agli operatori di costruire (corpora) uno scenario alla volta", ha spiegato Xinyu, "ma con modelli di grandi dimensioni, è sufficiente fornire un prompt per soddisfare la domanda". Dopo aver chiarito la domanda, il team di Hunyuan ha aggiornato quasi una versione ogni settimana, accelerando la velocità di iterazione e, nel giro di uno o due mesi, la precisione ha raggiunto il 95%.

Per questo fornitore di servizi in uscita, la tecnologia generativa era completamente nuova. Hunyuan ha mostrato loro direttamente i vantaggi apportati dai grandi modelli, riducendo le spese di manodopera di tre quarti.

"L'approccio migliore è mostrare gli effetti", ha affermato Xinyu. Quando i clienti hanno una certa comprensione della tecnologia generativa ma non molta, mostrare gli effetti è il modo più efficace. Trovando scenari a cui si può accedere tramite l'esperienza aziendale del cliente, conducendo direttamente la verifica dei test e dimostrando i miglioramenti che possono essere ottenuti.

Un'esperienza simile si è verificata in collaborazione con Xiaomi, ed è stata descritta come un "viaggio a doppio senso".

L'altra parte voleva introdurre grandi modelli nelle interazioni Q&A, applicando capacità di ricerca AI ai terminali. Ciò ha colpito due dei punti di forza di Hunyuan: il supporto fornito dal ricco ecosistema di contenuti di Tencent e le capacità di Hunyuan nella ricerca AI. Per Q&A, la precisione è molto critica.

"All'inizio c'erano ancora molte difficoltà", ha ricordato Xinyu. "Dal loro punto di vista, il modulo aziendale copriva molteplici scenari, tra cui chat casuali, domande e risposte sulla conoscenza e altri tipi, tra cui lo scenario di domande e risposte sulla conoscenza aveva requisiti di accuratezza relativamente elevati".

Attraverso test preliminari, il team di Hunyuan ha chiarito i propri vantaggi negli scenari di ricerca e, insieme all'altra parte, ha gradualmente perfezionato l'interazione Q&A ampiamente definita in base a diversi livelli di argomento. Questo tipo di segmentazione consente al modello di comprendere più chiaramente le esigenze specifiche e i requisiti di effetto di ogni scenario, conducendo così un'ottimizzazione più mirata.

Lo scenario Q&A della conoscenza è diventato il punto di arrivo. Nelle implementazioni successive, Hunyuan ha dovuto ancora superare molte sfide: non è necessario menzionare i problemi di latenza, il tempo di risposta deve essere rapido; in secondo luogo, l'integrazione dei contenuti di ricerca.

"Nell'intero collegamento, abbiamo creato un motore di ricerca auto-sviluppato e un modello di classificazione degli intenti per determinare se si tratta di una domanda ad alta tempestività. Ad esempio, se è correlata a notizie o argomenti di attualità, e quindi decidere se assegnarla al modello principale o alla ricerca AI."

Chiamare solo le parti più necessarie migliora notevolmente la velocità di risposta. Una scoperta importante è che il 70% delle richieste porta alla ricerca AI, il che significa che deve esserci un contenuto sufficientemente ricco come il supporto di chiamata più elementare. 

Dietro Hunyuan si cela l'intero ecosistema di contenuti Tencent. Dalle notizie, alla musica, alla finanza, fino all'assistenza sanitaria, l'ecosistema Tencent offre una ricchezza di contenuti di alta qualità. Questi contenuti sono accessibili e referenziabili dal modello Hunyuan durante le ricerche, offrendo un vantaggio unico.

Dopo oltre due mesi di intensa iterazione, la qualità delle risposte, la velocità di risposta e le prestazioni hanno pienamente soddisfatto i requisiti e sono state implementate nelle effettive operazioni aziendali di Xiaomi.

La chiave del business B2B è generare fatturato e guadagnare fiducia, il che richiede di offrire un valore reale alle attività dei clienti.

Generalizzazione “Roll” per raggiungere più scenari

L'applicazione di modelli di grandi dimensioni in vari settori e prodotti sta inoltre favorendo la crescita della tecnologia stessa.

Per alcuni prodotti di grandi modelli, la scelta del percorso B2C comporta una considerazione fondamentale: usare il feedback dei consumatori per ottimizzare il modello. La necessità di mettere a punto modelli di grandi dimensioni è infinita e il numero e l'attività degli utenti consumatori forniscono il carburante per l'iterazione del modello, accelerando così la velocità di iterazione.

In realtà, questo avviene anche nel business B2B, con esigenze ancora più elevate.

La funzionalità di valutazione dei saggi in cinese K12 di "Teenager Gains" sfrutta le capacità multimodali di Hunyuan. In combinazione con la tecnologia OCR intelligente di Tencent Cloud, riconosce il contenuto dei saggi degli studenti e utilizza il modello di grandi dimensioni per valutare i saggi in base a standard di punteggio preimpostati.

In genere, se la differenza di punteggio tra il modello grande e un insegnante umano è entro cinque punti, è considerato buono, ma non è facile da ottenere. Inizialmente, solo l'80% dei punteggi di Hunyuan era entro cinque punti dai punteggi degli insegnanti umani.

"Il modello ha determinati metodi e capacità per risolvere i problemi in alcuni scenari. Tuttavia, quando ci si concentra sul business di un cliente specifico, sono richieste prestazioni più elevate", ha affermato Xinyu. "Mentre una precisione del 90% potrebbe soddisfare gli obiettivi aziendali, al 70% o all'80%, c'è ancora un divario".

Ciò significa che è necessario uno sforzo continuo. Man mano che la base di clienti aziendali si espande, vengono poste nuove richieste alla tecnologia stessa: in primo luogo, un aumento significativo della velocità di iterazione: le iterazioni per gli utenti consumer potrebbero richiedere da uno a due mesi, ma ora una nuova versione può apparire settimanalmente. Questa iterazione ad alta frequenza promuove notevolmente la crescita e il progresso del modello.

In secondo luogo, servire continuamente diversi scenari aziendali ha notevolmente migliorato la capacità di generalizzazione del modello. Ciò indica che servire in modo approfondito diverse esigenze aziendali non solo accelera il ritmo dello sviluppo e dell'iterazione del modello, ma migliora anche la praticità e l'adattabilità del modello, consentendogli di espandersi da scenari seri a scenari più orientati all'intrattenimento.

La piattaforma di contenuti di gioco di ruolo "Dream Dimension", che ha recentemente ottenuto decine di milioni di finanziamenti di serie A, ha applicato il modello esclusivo di gioco di ruolo del modello grande Hunyuan, Hunyuan-role, mirato a servire i giovani utenti. Combina la tecnologia AI generativa per fornire un'esperienza di interazione virtuale interattiva e basata sulla storia.

Hunyuan-role ha aperto la strada a una nuova forma di interazione uomo-computer. Creando diverse immagini di personaggi virtuali e basandosi su sfondi di storie e ambientazioni di personaggi preimpostati, coinvolge gli utenti in dialoghi interattivi naturali e fluidi.

A livello tecnico, tali applicazioni di scenari hanno dimostrato i principali vantaggi di Hunyuan-role nella gestione di dialoghi di testo lunghi e corti, riconoscimento di intenti e risposta. Può gestire diversi scenari di applicazione e mostra eccellenti capacità di umanizzazione dei contenuti, non solo impegnandosi in interazioni di dialogo calorose, ma anche sviluppando trame per creare un'esperienza utente immersiva.

Queste caratteristiche rendono Hunyuan-role uno strumento potente per l'acquisizione di clienti di prodotti e le operazioni utente, svolgendo un ruolo cruciale nel migliorare la fidelizzazione e l'impegno degli utenti. Riflette inoltre che Hunyuan, perfezionato e migliorato in scenari seri, ha sviluppato capacità di generalizzazione che possono coprire scenari più ampi, anche in applicazioni end-side.

Passare da scenari seri a quelli di intrattenimento, creatività e altro ancora è un percorso che le applicazioni di modelli di grandi dimensioni devono intraprendere.

Man mano che la tecnologia matura e i costi diminuiscono, i modelli di grandi dimensioni sono destinati a espandersi in scenari applicativi più ampi. Inizialmente focalizzati su scenari aziendali seri come il lavoro d'ufficio aziendale, l'analisi dei dati e la ricerca scientifica, queste aree hanno richieste chiare e una maggiore disponibilità a pagare.

Un'ulteriore espansione nei settori dell'intrattenimento, della creatività e della produzione di contenuti richiede un punto di riferimento strategico: concentrarsi sempre sulla risoluzione di esigenze di scenari specifici come obiettivo principale, individuando il punto di ingresso per l'integrazione delle capacità di modelli di grandi dimensioni.

Oltre alla collaborazione con i software applicativi, sono necessarie anche partnership con i produttori di hardware per consentire al modello di funzionare e funzionare a livello di consumatore, offrendo servizi più vicini alla vita quotidiana degli utenti ed esperienze di servizio più comode e immediate.

In questo processo, la consapevolezza del mercato e l'accettazione della tecnologia AI generativa sono in continuo aumento e la base di utenti si sta espandendo costantemente. Di fronte a questo ambiente di mercato in rapido cambiamento, la capacità di iterazione del modello diventa particolarmente importante. Ciò non si riflette solo nelle prestazioni tecniche, ma anche nella comprensione delle esigenze degli utenti, nell'adattamento a diversi scenari e altro ancora. Solo i modelli e i team in grado di apprendere rapidamente, ottimizzare continuamente e adattarsi costantemente alle nuove richieste possono mantenere un vantaggio nella concorrenza.

Man mano che vengono coperti più scenari, aumenta anche la portata di più consumatori finali. Con l'accettazione generale della tecnologia generativa da parte del mercato, la potenziale base di utenti continuerà a crescere. Un modello che può iterare rapidamente e auto-migliorarsi può adattarsi rapidamente ai cambiamenti, muovendosi più costantemente e più lontano.

Fonte da se uno

Dichiarazione di non responsabilità: le informazioni sopra riportate sono fornite da ifanr.com, indipendentemente da Chovm.com. Chovm.com non rilascia alcuna dichiarazione o garanzia in merito alla qualità e all'affidabilità del venditore e dei prodotti. Chovm.com declina espressamente qualsiasi responsabilità per violazioni relative al diritto d'autore dei contenuti.

Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

Scorrere fino a Top