Per cavi BMS, BUS, industriali e di strumentazione.

Con la conclusione del Festival di Primavera, l'entusiasmo per DeepSeek rimane forte. Le recenti festività hanno evidenziato un forte senso di competizione all'interno del settore tecnologico, con molti che hanno discusso e analizzato questo "pesce gatto". La Silicon Valley sta vivendo una crisi senza precedenti: i sostenitori dell'open source stanno nuovamente esprimendo le loro opinioni e persino OpenAI sta rivalutando se la sua strategia closed source sia stata la scelta migliore. Il nuovo paradigma di minori costi di calcolo ha innescato una reazione a catena tra giganti dei chip come Nvidia, portando a perdite di valore di mercato giornaliere record nella storia del mercato azionario statunitense, mentre le agenzie governative stanno indagando sulla conformità dei chip utilizzati da DeepSeek. Nonostante le recensioni contrastanti su DeepSeek all'estero, a livello nazionale sta vivendo una crescita straordinaria. Dopo il lancio del modello R1, l'app associata ha registrato un'impennata di traffico, a indicare che la crescita nei settori applicativi spingerà avanti l'intero ecosistema dell'IA. L'aspetto positivo è che DeepSeek amplierà le possibilità applicative, suggerendo che affidarsi a ChatGPT non sarà così costoso in futuro. Questo cambiamento si è riflesso nelle recenti attività di OpenAI, tra cui la fornitura di un modello di ragionamento chiamato o3-mini agli utenti free in risposta a DeepSeek R1, nonché i successivi aggiornamenti che hanno reso pubblica la catena di pensiero di o3-mini. Molti utenti stranieri hanno espresso gratitudine a DeepSeek per questi sviluppi, sebbene questa catena di pensiero serva solo come sintesi.
Con ottimismo, è evidente che DeepSeek stia unificando gli operatori nazionali. Con la sua attenzione alla riduzione dei costi di formazione, diversi produttori di chip upstream, provider cloud intermedi e numerose startup si stanno unendo attivamente all'ecosistema, migliorando l'efficienza dei costi per l'utilizzo del modello DeepSeek. Secondo i documenti di DeepSeek, la formazione completa del modello V3 richiede solo 2,788 milioni di ore GPU H800 e il processo di formazione è altamente stabile. L'architettura MoE (Mixture of Experts) è fondamentale per ridurre i costi di pre-formazione di un fattore dieci rispetto a Llama 3 con 405 miliardi di parametri. Attualmente, V3 è il primo modello pubblicamente riconosciuto a dimostrare una sparsità così elevata in MoE. Inoltre, l'MLA (Multi Layer Attention) funziona in modo sinergico, in particolare negli aspetti di ragionamento. "Più il MoE è rada, maggiore è la dimensione del batch necessaria durante il ragionamento per sfruttare appieno la potenza di calcolo, con la dimensione del KVCache come fattore limitante chiave; l'MLA riduce significativamente la dimensione del KVCache", ha osservato un ricercatore di Chuanjing Technology in un'analisi per AI Technology Review. Nel complesso, il successo di DeepSeek risiede nella combinazione di diverse tecnologie, non di una sola. Gli addetti ai lavori elogiano le capacità ingegneristiche del team di DeepSeek, sottolineandone l'eccellenza nell'addestramento parallelo e nell'ottimizzazione degli operatori, ottenendo risultati rivoluzionari grazie alla raffinazione di ogni dettaglio. L'approccio open source di DeepSeek alimenta ulteriormente lo sviluppo complessivo di modelli di grandi dimensioni e si prevede che, se modelli simili si espanderanno in immagini, video e altro ancora, ciò stimolerà significativamente la domanda in tutto il settore.
Opportunità per servizi di ragionamento di terze parti
I dati indicano che dal suo lancio, DeepSeek ha accumulato 22,15 milioni di utenti attivi giornalieri (DAU) in soli 21 giorni, raggiungendo il 41,6% della base utenti di ChatGPT e superando i 16,95 milioni di utenti attivi giornalieri di Doubao, diventando così l'applicazione in più rapida crescita a livello globale, in cima alla classifica dell'App Store di Apple in 157 paesi/regioni. Tuttavia, mentre gli utenti accorrevano a frotte, gli hacker informatici hanno attaccato senza sosta l'app DeepSeek, causando un notevole sovraccarico sui suoi server. Gli analisti del settore ritengono che ciò sia in parte dovuto al fatto che DeepSeek utilizza schede per l'addestramento, pur non disponendo di una potenza di calcolo sufficiente per il ragionamento. Un esperto del settore ha dichiarato ad AI Technology Review: "I frequenti problemi del server possono essere risolti facilmente addebitando commissioni o finanziando l'acquisto di più macchine; in definitiva, tutto dipende dalle decisioni di DeepSeek". Questo rappresenta un compromesso tra concentrarsi sulla tecnologia e sulla produzione. DeepSeek ha fatto affidamento in gran parte sulla quantizzazione quantistica per l'autosostentamento, avendo ricevuto pochi finanziamenti esterni, con conseguente pressione di flusso di cassa relativamente bassa e un ambiente tecnologico più puro. Attualmente, alla luce dei problemi sopra menzionati, alcuni utenti stanno sollecitando DeepSeek sui social media ad aumentare le soglie di utilizzo o a introdurre funzionalità a pagamento per migliorare il comfort dell'utente. Inoltre, gli sviluppatori hanno iniziato a utilizzare l'API ufficiale o API di terze parti per l'ottimizzazione. Tuttavia, la piattaforma aperta di DeepSeek ha recentemente annunciato: "Le risorse del server attuali sono scarse e i costi dei servizi API sono stati sospesi".
Questo apre senza dubbio maggiori opportunità per i fornitori terzi nel settore delle infrastrutture di intelligenza artificiale. Recentemente, numerosi colossi del cloud nazionali e internazionali hanno lanciato le API modello di DeepSeek: i colossi esteri Microsoft e Amazon sono stati tra i primi ad aderire alla fine di gennaio. Il leader nazionale, Huawei Cloud, ha fatto la prima mossa, rilasciando i servizi di ragionamento DeepSeek R1 e V3 in collaborazione con Flow, basato su Silicon, il 1° febbraio. I report di AI Technology Review indicano che i servizi Flow, basati su Silicon, hanno registrato un afflusso di utenti, di fatto "facendo crollare" la piattaforma. Anche le tre grandi aziende tecnologiche – BAT (Baidu, Alibaba, Tencent) e ByteDance – hanno lanciato offerte a basso costo e a tempo limitato a partire dal 3 febbraio, ricordando le guerre di prezzo dei fornitori cloud dello scorso anno, innescate dal lancio del modello V2 di DeepSeek, che ha portato DeepSeek a essere soprannominato il "macellaio dei prezzi". Le azioni frenetiche dei fornitori di servizi cloud riecheggiano i precedenti solidi legami tra Microsoft Azure e OpenAI, dove nel 2019 Microsoft ha investito ingenti somme di 1 miliardo di dollari in OpenAI e ne ha tratto beneficio dopo il lancio di ChatGPT nel 2023. Tuttavia, questo stretto rapporto ha iniziato a indebolirsi dopo che Meta ha reso open source Llama, consentendo ad altri fornitori esterni all'ecosistema Microsoft Azure di competere con i loro modelli di grandi dimensioni. In questo caso, DeepSeek non solo ha superato ChatGPT in termini di interesse per il prodotto, ma ha anche introdotto modelli open source dopo il rilascio o1, in modo simile all'entusiasmo suscitato dal revival di GPT-3 da parte di Llama.
In realtà, i provider cloud si stanno posizionando anche come gateway di traffico per le applicazioni di intelligenza artificiale, il che significa che rafforzare i legami con gli sviluppatori si traduce in vantaggi preventivi. I report indicano che Baidu Smart Cloud aveva oltre 15.000 clienti che utilizzavano il modello DeepSeek tramite la piattaforma Qianfan al giorno del lancio del modello. Inoltre, diverse aziende più piccole offrono soluzioni, tra cui Silicon-based Flow, Luchen Technology, Chuanjing Technology e vari provider di infrastrutture di intelligenza artificiale che hanno lanciato il supporto per i modelli DeepSeek. AI Technology Review ha appreso che le attuali opportunità di ottimizzazione per le distribuzioni localizzate di DeepSeek esistono principalmente in due aree: una è l'ottimizzazione per le caratteristiche di sparsità del modello MoE utilizzando un approccio di ragionamento misto per distribuire localmente il modello MoE a 671 miliardi di parametri, utilizzando al contempo l'inferenza ibrida GPU/CPU. Inoltre, l'ottimizzazione di MLA è fondamentale. Tuttavia, i due modelli di DeepSeek presentano ancora alcune sfide nell'ottimizzazione della distribuzione. "A causa delle dimensioni del modello e dei numerosi parametri, l'ottimizzazione è davvero complessa, in particolare per le distribuzioni locali, dove raggiungere un equilibrio ottimale tra prestazioni e costi sarà difficile", ha affermato un ricercatore di Chuanjing Technology. L'ostacolo più significativo risiede nel superare i limiti di capacità di memoria. "Adottiamo un approccio di collaborazione eterogenea per sfruttare appieno le CPU e altre risorse computazionali, posizionando solo le parti non condivise della matrice MoE sparsa su CPU/DRAM per l'elaborazione tramite operatori CPU ad alte prestazioni, mentre le porzioni dense rimangono sulla GPU", ha spiegato ulteriormente. I report indicano che il framework open source KTransformers di Chuanjing inietta principalmente varie strategie e operatori nell'implementazione originale di Transformers tramite un template, migliorando significativamente la velocità di inferenza utilizzando metodi come CUDAGraph. DeepSeek ha creato opportunità per queste startup, poiché i vantaggi di crescita stanno diventando evidenti; molte aziende hanno segnalato una notevole crescita della clientela dopo il lancio dell'API DeepSeek, ricevendo richieste da precedenti clienti alla ricerca di ottimizzazioni. Gli addetti ai lavori del settore hanno osservato: "In passato, gruppi di clienti piuttosto consolidati erano spesso vincolati ai servizi standardizzati di aziende più grandi, strettamente vincolati dai vantaggi di costo derivanti dalla scalabilità. Tuttavia, dopo aver completato l'implementazione di DeepSeek-R1/V3 prima dello Spring Festival, abbiamo improvvisamente ricevuto richieste di collaborazione da diversi clienti noti, e persino clienti precedentemente inattivi hanno avviato contatti per presentare i nostri servizi DeepSeek". Attualmente, sembra che DeepSeek stia rendendo le prestazioni di inferenza dei modelli sempre più critiche e, con la crescente adozione di modelli di grandi dimensioni, ciò continuerà a influenzare significativamente lo sviluppo nel settore delle infrastrutture di intelligenza artificiale. Se un modello di livello DeepSeek potesse essere implementato localmente a basso costo, ciò contribuirebbe notevolmente agli sforzi di trasformazione digitale di enti governativi e aziende. Tuttavia, persistono delle sfide, poiché alcuni clienti potrebbero nutrire aspettative elevate riguardo alle capacità dei modelli di grandi dimensioni, rendendo ancora più evidente che il bilanciamento tra prestazioni e costi diventa vitale nell'implementazione pratica.
Per valutare se DeepSeek sia migliore di ChatGPT, è fondamentale comprenderne le principali differenze, i punti di forza e i casi d'uso. Ecco un confronto completo:
Caratteristica/Aspetto | Ricerca profonda | ChatGPT |
---|---|---|
Proprietà | Sviluppato da un'azienda cinese | Sviluppato da OpenAI |
Modello sorgente | Open source | Proprietario |
Costo | Gratuito da utilizzare; opzioni di accesso API più economiche | Prezzi in abbonamento o a consumo |
Personalizzazione | Altamente personalizzabile, consente agli utenti di modificarlo e svilupparlo ulteriormente | Personalizzazione limitata disponibile |
Prestazioni in compiti specifici | Eccelle in determinati ambiti come l'analisi dei dati e il recupero delle informazioni | Versatile con ottime prestazioni nella scrittura creativa e nelle attività conversazionali |
Supporto linguistico | Forte attenzione alla lingua e alla cultura cinese | Ampio supporto linguistico ma incentrato sugli Stati Uniti |
Costo della formazione | Costi di formazione inferiori, ottimizzati per l'efficienza | Costi di formazione più elevati, che richiedono risorse computazionali sostanziali |
Variazione della risposta | Potrebbe offrire risposte diverse, probabilmente influenzate dal contesto geopolitico | Risposte coerenti basate sui dati di formazione |
Pubblico di destinazione | Rivolto a sviluppatori e ricercatori che desiderano flessibilità | Rivolto agli utenti generici che cercano capacità conversazionali |
Casi d'uso | Più efficiente per la generazione di codice e le attività rapide | Ideale per generare testo, rispondere a domande e partecipare al dialogo |
Una prospettiva critica su "Disruption Nvidia"
Attualmente, oltre a Huawei, diversi produttori di chip nazionali come Moore Threads, Muxi, Biran Technology e Tianxu Zhixin si stanno adattando ai due modelli di DeepSeek. Un produttore di chip ha dichiarato ad AI Technology Review: "La struttura di DeepSeek dimostra innovazione, pur rimanendo un LLM (Licensed Level Management). Il nostro adattamento a DeepSeek si concentra principalmente sulle applicazioni di ragionamento, rendendo l'implementazione tecnica piuttosto semplice e rapida". Tuttavia, l'approccio MoE richiede requisiti più elevati in termini di archiviazione e distribuzione, oltre a garantire la compatibilità durante l'implementazione con chip nazionali, presentando numerose sfide ingegneristiche che devono essere risolte durante l'adattamento. "Attualmente, la potenza di calcolo nazionale non è all'altezza di Nvidia in termini di usabilità e stabilità, il che richiede la partecipazione di un'azienda produttrice per la configurazione dell'ambiente software, la risoluzione dei problemi e l'ottimizzazione delle prestazioni di base", ha affermato un professionista del settore sulla base dell'esperienza pratica. Allo stesso tempo, "A causa dell'ampia scala parametrica di DeepSeek R1, la potenza di calcolo nazionale richiede più nodi per la parallelizzazione. Inoltre, le specifiche hardware nazionali sono ancora leggermente inferiori; ad esempio, l'Huawei 910B attualmente non supporta l'inferenza FP8 introdotta da DeepSeek". Uno dei punti salienti del modello DeepSeek V3 è l'introduzione di un framework di training a precisione mista FP8, che è stato validato efficacemente su un modello estremamente ampio, segnando un risultato significativo. In precedenza, importanti aziende come Microsoft e Nvidia avevano suggerito lavori correlati, ma permangono dubbi nel settore sulla fattibilità. È noto che, rispetto a INT8, il vantaggio principale di FP8 è che la quantizzazione post-training può raggiungere una precisione quasi senza perdite, migliorando significativamente la velocità di inferenza. Rispetto a FP16, FP8 può raggiungere un'accelerazione fino a due volte superiore su H20 di Nvidia e oltre 1,5 volte superiore su H100. In particolare, con l'intensificarsi delle discussioni sulla tendenza della potenza di calcolo nazionale e dei modelli nazionali, si sta diffondendo la speculazione sulla possibilità che Nvidia possa essere sbarrata e sulla possibilità di aggirare il fossato CUDA. Un fatto innegabile è che DeepSeek ha effettivamente causato un calo sostanziale del valore di mercato di Nvidia, ma questo cambiamento solleva interrogativi sull'integrità della potenza di calcolo di fascia alta di Nvidia. Le narrative precedentemente accettate sull'accumulo di risorse computazionali guidato dal capitale vengono messe in discussione, eppure rimane difficile per Nvidia essere completamente sostituita negli scenari di training. L'analisi dell'utilizzo approfondito di CUDA da parte di DeepSeek mostra che la flessibilità, come l'utilizzo di SM per la comunicazione o la manipolazione diretta delle schede di rete, non è fattibile per le GPU tradizionali. I punti di vista del settore sottolineano che il fossato di Nvidia comprende l'intero ecosistema CUDA piuttosto che solo CUDA stesso, e le istruzioni PTX (Parallel Thread Execution) impiegate da DeepSeek fanno ancora parte dell'ecosistema CUDA. "Nel breve termine, la potenza di calcolo di Nvidia non può essere aggirata, e questo è particolarmente evidente nell'addestramento; tuttavia, l'implementazione di schede nazionali per il ragionamento sarà relativamente più semplice, quindi i progressi saranno probabilmente più rapidi. L'adattamento delle schede nazionali si concentra principalmente sull'inferenza; nessuno è ancora riuscito ad addestrare un modello delle prestazioni di DeepSeek su schede nazionali su larga scala", ha commentato un analista del settore ad AI Technology Review. Nel complesso, dal punto di vista dell'inferenza, le circostanze sono incoraggianti per i chip nazionali di grandi dimensioni. Le opportunità per i produttori di chip nazionali nel campo dell'inferenza sono più evidenti a causa dei requisiti eccessivamente elevati per l'addestramento, che ne ostacolano l'ingresso. Gli analisti sostengono che il semplice sfruttamento delle schede di inferenza nazionali sia sufficiente; se necessario, è possibile acquisire una macchina aggiuntiva, mentre i modelli di addestramento pongono sfide specifiche: gestire un numero maggiore di macchine può diventare oneroso e tassi di errore più elevati possono avere un impatto negativo sui risultati dell'addestramento. L'addestramento presenta anche requisiti specifici per la scalabilità dei cluster, mentre i requisiti sui cluster per l'inferenza non sono così rigorosi, il che attenua i requisiti della GPU. Attualmente, le prestazioni della singola scheda H20 di Nvidia non superano quelle di Huawei o Cambrian; il suo punto di forza risiede nel clustering. In base all'impatto complessivo sul mercato della potenza di calcolo, il fondatore di Luchen Technology, You Yang, ha osservato in un'intervista ad AI Technology Review: "DeepSeek potrebbe temporaneamente compromettere la creazione e il noleggio di cluster di calcolo di addestramento di grandi dimensioni. A lungo termine, riducendo significativamente i costi associati all'addestramento, al ragionamento e alle applicazioni di modelli di grandi dimensioni, è probabile che la domanda di mercato aumenti. Le successive iterazioni di IA basate su questo stimoleranno quindi costantemente una domanda sostenuta nel mercato della potenza di calcolo". Inoltre, "la crescente domanda di DeepSeek per servizi di ragionamento e fine-tuning è più compatibile con il panorama computazionale nazionale, dove le capacità locali sono relativamente deboli, contribuendo a mitigare lo spreco di risorse inutilizzate dopo la creazione del cluster; questo crea opportunità concrete per i produttori a diversi livelli dell'ecosistema computazionale nazionale". Luchen Technology ha collaborato con Huawei Cloud per lanciare le API di ragionamento della serie DeepSeek R1 e i servizi di cloud imaging basati sulla potenza di calcolo nazionale. You Yang ha espresso ottimismo riguardo al futuro: "DeepSeek infonde fiducia nelle soluzioni prodotte a livello nazionale, incoraggiando un maggiore entusiasmo e investimenti nelle capacità di calcolo nazionali in futuro".

Conclusione
Che DeepSeek sia "migliore" di ChatGPT dipende dalle esigenze e dagli obiettivi specifici dell'utente. Per attività che richiedono flessibilità, costi contenuti e personalizzazione, DeepSeek potrebbe essere superiore. Per la scrittura creativa, la ricerca di informazioni generali e le interfacce conversazionali intuitive, ChatGPT potrebbe essere la scelta migliore. Ogni strumento ha scopi diversi, quindi la scelta dipenderà in larga misura dal contesto in cui viene utilizzato.
Cavi di controllo
Sistema di cablaggio strutturato
Rete e dati, cavo in fibra ottica, cavo di collegamento, moduli, mascherina
Dal 16 al 18 aprile 2024, Middle-East-Energy a Dubai
16-18 aprile 2024 Securika a Mosca
9 maggio 2024 Evento di lancio di nuovi prodotti e tecnologie a Shanghai
22-25 ottobre 2024 SICUREZZA CINA a Pechino
19-20 novembre 2024 MONDO CONNESSO KSA
Data di pubblicazione: 10 febbraio 2025