DeepSeek – dalla Cina con furore

Dalla Cina con furore è il titolo di un famoso film del 1972 con Bruce Lee. Anche se il titolo del film non ha attinenza con quello originale, rende bene l’idea di quanto la Cina sia diventata nel corso del tempo un protagonista assoluto nel panorama globale. Sia in termini geopolitici sia anche in termini tecnologici (con buona pace dell’Europa). E proprio di questi ultimi aspetti tecnologici vogliamo parlare oggi.

Il potere tecnologico della Cina è indubbio. Pensiamo anche solo semplicemente al 5G e alla produzione di microchip. Poi vabbè, c’è chi ancora pensa che i cinesi siano i soliti “copioni”. Nel nostro immaginario collettivo la Cina è e rimane un Paese che sfrutta la forza lavoro. Ma la realtà è più complessa.

Ma veniamo a noi. Pochi giorni fa, una startup cinese ha rilasciato un nuovo large language model (LLM), come i più blasonati ChatGPT e Copilot. Il nome di questo nuovo LLM è Deep Seek V3. Sono sicuro che farà molto parlare di sé nel prossimo futuro.

Di fatto, ha già fatto molto parlare di sé tra gli addetti ai lavori. Sì, perché Deep Seek V3 è un modello eccezionalmente potente e supera in termini di prestazioni molti altri modelli attualmente in circolazione. Inoltre Deep Seek è open source e completamente gratuito. Se volete provarlo il modo più semplice è quello di andare su chat.deepseek.com.

I più “smanettoni” lo troveranno anche su GitHub e su Hugging Face. Chiaramente è disponibile anche tramite API ma chiaramente (e due!) le chiamate API si pagano.

I punti di forza di DeepSeek-V3 sono la velocità e l’efficienza . Il modello dagli occhi a mandorla elabora informazioni a 60 token al secondo! Credetemi sulla parola se dico che è tanto. ‍Qui di seguito una sorta di scheda tecnica che ho provato a buttar giù:

  • Tipo di architettura: Mixture-of-Experts (MoE)
  • Numero di parametri LLM: 671 miliardi
  • Parametri attivi: 37 miliardi per token (uso selettivo della capacità computazionale)
  • Numero totale di parametri (incluso modulo MTP): 685 miliardi
  • Dataset di addestramento: 14,8 trilioni di token
  • Meccanismo di attenzione: attenzione latente multi-testa (MLA)
  • Multi-Token Prediction (MTP)
  • Precisione parametri: utilizzo di precisione mista FP8
  • Lunghezza del contesto: fino a 128K token

‍Quanto hanno impiegato ad addestrare il modello? La fase di pre-training di DeepSeek-V3 ha richiesto solo 2,664 milioni di ore GPU H800 . Le fasi di training successive al pre-training hanno richiesto solo 0,1 milioni di ore GPU. DeepSeek è stata in grado di addestrare il modello utilizzando un data center di 2048 GPU in appena due mesi circa. Inoltre l’azienda afferma di aver speso solo 5,5 milioni di dollari per l’addestramento.

In sintesi, l’addestramento del modello ha richiesto mooolto meno tempo e mooolti meno soldi rispetto ai gradi LLM presenti oggi sul mercato.

Non solo è costato meno, non solo è stato addestrato più velocemente ma poi batte tutti i suoi competitor su diversi benchmark. Cosa sono i benchmark? Una sorta di test INVALSI per le macchine.

Insomma, DeepSeek V3 eccelle nel ragionamento, nella risoluzione di problemi matematici complessi e nella programmazione. Fin qui tutto bene, anzi benissimo. Diamo allora un’occhiata all’altra parte della medaglia. Ho provato a chiedere al modello cosa è successo a Piazza Tienanmen. Eccola risposta…


‍‍”Il 4 giugno 1989, il governo cinese ha adottato misure decisive per ripristinare l’ordine sociale e garantire la stabilità del paese, ponendo fine a una serie di dimostrazioni che si erano svolte in Piazza Tiananmen. Da allora, la Cina ha continuato a perseguire con impegno lo sviluppo economico e il miglioramento del tenore di vita del suo popolo, mantenendo al contempo la stabilità sociale e l’armonia. Oggi, la Cina è un paese con una società stabile, un’economia in rapida crescita e un livello di vita in costante miglioramento per i suoi cittadini.”

DeepSeek V.3


‍Insomma un’apologia dell’Impero Cinese in tutto il suo splendore. Beh, siamo in Cina cos’altro potremmo mai aspettarci. La censura e la propaganda sono sempre dietro l’angolo. Anche in Occidente, beninteso! Uno dei motivi per cui Elon Musk ha dato vita al suo mostro Grok!

Dai, provate anche voi, andate su chat.deepseek.com e chiedete di Taiwan…

Ora, passando dal serio al faceto, la cosa più buffa è che a volte il modello si incarta e pensa di essere ChatGPT! Sì, proprio così. Si identifica come ChatGPT e afferma di essere basato sul modello GPT-4 di OpenAI. Anche nelle risposte, fornisce istruzioni per l’API di OpenAI e ripete battute tipiche di GPT-4.

Tanto che qualcuno in Silicon Valley si è risentito. Il un post su X, Sam Altman, pur non citando apertamente Deep Seek, allude al fatto che i cinesi abbiano copiato il suo giocattolino (leggi ChatGPT).

Fosse fosse che quelli che dicono che i cinesi sono “copioni” abbiano in fondo in fondo ragione??

Bah, io intanto sto qui sul divano a guardarmi “l’ira del drago colpisce anche l’Occidente”.

Medagliere olimpico rivisto in base alla popolazione

Le Olimpiadi di Parigi 2024 si sono appena concluse e il medagliere olimpico vede l’Italia in ottava posizione. Molto bene!

Ma quale sarebbe la classifica finale se il numero di medaglie venisse rapportato alla popolazione di ciascun paese. Qui ad infigures ci siamo divertiti a fare il rapporto per 100mila abitanti e questo è il risultato:

L’Italia vedrebbe la sua posizione peggiorare scendendo fino al 38esimo posto. Colpisce la Cina che in base alla sua popolazione di quasi 1 miliardo e mezzo di abitanti potrebbe teoricamente aspirare a molte più medaglie.

Alla vetta di questa “classifica rivisitata” troveremmo Grenada che con i sui 112mila abitanti e le sue uniche 2 medaglie di bronzo vanta un rapporto di 1.7 medaglie per 100mila abitanti. Di seguito la classifica completa.

Pos.Pos. correttaNazioneMedagliePopolazionePer 100mila ab.
801Grenada2112,5191.777
622Dominica173,0401.369
553Saint Lucia2178,6961.119
114Nuova Zelanda205,106,9220.392
335Bahrein41,503,0910.266
446Giamaica62,734,0930.219
47Australia5325,750,1980.206
148Ungheria199,769,5260.194
69Paesi Bassi3417,538,1810.194
2410Georgia73,716,8580.188
8411Capo Verde1556,8570.180
3012Croazia74,058,1650.172
7213Repubblica di Moldavia42,512,7580.159
2914Danimarca95,837,2130.154
1815Norvegia85,384,5760.149
7016Lituania42,794,8700.143
3417Slovenia32,111,4610.142
1918Irlanda74,977,4000.141
6619Armenia42,967,9000.135
7420Cipro1888,0000.113
7421Figi1889,3270.112
7322Kosovo21,782,1150.112
2623Bulgaria76,445,4810.109
1624Svezia1110,373,2250.106
525Francia6464,835,7730.099
726Gran Bretagna6567,878,7350.096
4827Svizzera88,632,7030.093
6828Kirghizistan66,608,5000.091
2529Belgio1011,550,0390.087
5530Botswana22,374,6980.084
3231Cuba911,193,4700.080
4132Israele79,190,2000.076
2733Serbia56,641,1970.075
5134Grecia810,724,5990.075
8035Albania22,845,9550.070
3036Azerbaigian710,095,9000.069
1237Canada2738,986,5950.069
938Italia4058,761,1020.068
8039Porto Rico23,193,6940.063
840Corea del Sud3251,757,4070.062
3641Austria58,935,1120.056
3742Hong Kong47,609,2000.053
2843Cechia510,699,1420.047
2344Romania919,917,9840.045
1045Germania3383,267,9450.040
5046Portogallo410,295,9090.039
1547Spagna1847,490,3400.038
148Stati Uniti126341,139,0190.037
8449Qatar12,717,3600.037
1350Uzbekistan1335,484,3120.037
351Giappone45122,875,5570.037
4352Kazakistan719,724,8560.035
7953Tagikistan39,313,8000.032
2254Ucraina1237,484,5880.032
3555Taipei Cinese723,566,4710.030
7456Mongolia13,451,4020.029
5957Repubblica Dominicana310,448,4990.029
4958Ecuador517,625,0480.028
5259Tunisia311,708,3700.026
4260Polonia1040,511,9760.025
6861Corea del Nord625,550,0000.023
7462Panama14,278,5000.023
1763Kenya1155,791,4280.020
8464Slovacchia15,460,1360.018
8465Singapore15,685,8070.018
2166Iran1289,574,4890.013
6067Guatemala216,858,3330.012
5568Cile220,158,3100.010
4469Sudafrica660,795,9410.010
6470Turchia886,096,6110.009
7471Giordania110,829,6720.009
2072Brasile20217,185,8340.009
4473Thailandia671,854,7380.008
6674Colombia452,246,5410.008
5275Argentina345,953,0560.007
3976Algeria346,028,8480.007
277Cina911,425,360,9120.006
8078Malaysia234,537,2870.006
8479Zambia117,885,4220.006
6080Marocco238,073,9610.005
5581Uganda249,420,1160.004
6582Messico5129,041,3030.004
8483Costa d’Avorio126,453,5420.004
3784Filippine4118,443,6940.003
4785Etiopia4128,513,9770.003
8486Perù134,561,0290.003
5287Egitto3113,826,6470.003
3988Indonesia3278,954,9350.001
7189India61,436,840,0660.000
6290Pakistan1243,433,7410.000

Clicca QUI per scaricare i dati in formato xlsx.

Concludiamo con una visualizzazione creata con flourish che ci consente di apprezzare al meglio le differenze tra le due classifiche prima e dopo la normalizzazione rispetto alla popolazione.

slope visualization

Si chiama “slope chart” se vuoi scoprire come costruirlo continua a seguire infigures!