Nella prima metà dell'Ottocento Brillat-Savarin diceva "Dimmi cosa mangi e ti dirò chi sei". Oggi potremmo dirlo dell'intelligenza artificiale.
Per molti professionisti l'intelligenza artificiale è diventata qualcosa di cui non si può più fare a meno. O per meglio dire: ci ha reso tutti più comodi, più veloci e spesso anche più cerebralmente piatti.
Da quando la uso tutti i giorni il mio modo di lavorare è cambiato. Non ho smesso di pensare, certo. Ma se sono pieno di cose da fare mi capita di delegare un ragionamento a un modello AI. Se devo scrivere qualcosa e ho poco tempo, lo faccio fare a lei. Se non ho voglia di cercare una ricetta, chiedo direttamente. Comodo? Tantissimo. E forse è proprio questa comodità che dovremmo interrogare un po' di più.
Eppure non è facile farne a meno. È come l'avvento di internet. Mi ricordo quando alle medie la professoressa ci assegnava ricerche per casa: io le facevo con le enciclopedie online, e puntualmente venivano elogiati i compagni che avevano trascritto tutto su foglio protocollo con la biro. Questione di metodo, diceva. A cavallo tra anni '90 e 2000 internet era ancora qualcosa che ci avrebbe "resi scemi". A distanza di vent'anni direi che non è andata affatto così — internet ha fatto cose grandi e danni grandi, ma è normale quando parliamo di fenomeni che cambiano la vita delle persone.
Con l'intelligenza artificiale sta succedendo la stessa cosa. C'è chi la odia, chi la ama e chi la usa con giudizio critico — cosa che dovremmo fare tutti, secondo me. Chiedo, ci ragiono sopra, modifico, miglioro. Può essere un ottimo punto di partenza quanto un ottimo punto di chiusura, dipende dai casi. Ma di come usare l'intelligenza artificiale si parla ovunque, e non è il tema di questo numero.
Quale intelligenza artificiale usi?
O meglio: quale modello di intelligenza artificiale usi?
Non c'è solo ChatGPT — che, per la precisione, è il prodotto, non il modello: il modello sotto si chiama GPT. Ma il punto è un altro. C'è anche Claude (di Anthropic), c'è Grok (di X), c'è Gemini (di Google) e altri… sì, altri. Perché i primi che ci vengono in mente sono proprio grandi colossi americani che hanno la forza per scrivere modelli all'avanguardia incredibili e fare campagne di marketing gigantesche.
Aziende che investono miliardi, ricevono miliardi. Da grandi finanziatori privati e anche dagli Stati. Sì, dagli Stati. Gli equilibri geopolitici dei prossimi anni si decideranno anche a seconda di chi ha l'intelligenza artificiale più grossa e di chi ci ha investito più soldi per svilupparle.
Lavorando con colleghi che si occupano di fundraising o che comunque lavorano in campo digital sento solo nominare ChatGPT. Qualche volta Gemini. Più raramente Claude.
Ma tipo… Mistral?
Esiste anche altro in questo mondo
Ce ne stiamo accorgendo che non esiste solo ChatGPT, ma lo stiamo facendo dalla prospettiva sbagliata. Da mesi vedo post e articoli che sostengono — giustamente — come Claude e Gemini siano migliori sotto diversi aspetti. È vero: i rivali del capostipite stanno facendo passi da gigante, al punto da superarlo in molti ambiti.
Il problema è che restiamo dentro lo stesso recinto. Claude è di Anthropic, Gemini è di Google: stiamo pur sempre parlando di colossi americani. Cambiamo marca, non cambiamo logica.
E poi c'è DeepSeek, che non scriverei nemmeno "buongiorno" a un'AI che si rifiuta di rispondermi su Piazza Tiananmen. Un modello (quello ospitato sui server cinesi) che censura la storia per conto di un governo è l'opposto della trasparenza che dovremmo pretendere da questi strumenti.
Ma esiste una terza via. Esistono modelli open source — a codice aperto, verificabili, modificabili — sviluppati in Europa. Il più famoso è Mistral.
L'alternativa (più) responsabile
Mistral è open-source, il che significa che il codice è pubblico, verificabile, modificabile. I dati restano dentro i confini del GDPR europeo. I modelli sono ottimizzati anche per l'italiano. I costi sono competitivi. E soprattutto: non stai finanziando un monopolio californiano che risponde prima agli azionisti e poi a te.
Quando ho iniziato a usarla, onestamente, non mi aspettavo granché. Ero abituato ai big, e il confronto sembrava impietoso. Invece mi sono ricreduto. Non è perfetta — nessun modello lo è — ma è sorprendentemente capace, migliora di versione in versione, e soprattutto sai cosa c'è sotto il cofano. È trasparente per costruzione, non per scelta di marketing.
Eppure Mistral è una scelta più consapevole da molti punti di vista. Garantisce sovranità digitale e indipendenza tecnologica, proteggendo i dati degli utenti all'interno del quadro normativo del GDPR. Si distingue per trasparenza ed etica, pubblicando modelli open-source e adottando linee guida chiare sull'uso responsabile dell'AI. Dal punto di vista economico, offre soluzioni ad alte prestazioni a costi competitivi.
Mistral supporta attivamente l'ecosistema europeo, collaborando con università e startup locali e ottimizzando i suoi modelli per lingue come l'italiano, mentre investe in sostenibilità ambientale, riducendo l'impatto energetico rispetto ai data center dei competitor americani.
Perché non usare Mistral? No, davvero — risponditi. Se l'unica cosa che ti viene in mente è "non ci avevo mai pensato", beh. Ora ci hai pensato.
Cosa c'entra il fundraising?
In un settore come il nonprofit, dove la fiducia è tutto, sapere che i dati che diamo in pasto all'intelligenza artificiale sono gestiti nel rispetto delle normative europee non è un dettaglio tecnico — è una questione etica.
Pensaci un secondo. Quando usi un modello AI per il tuo lavoro di fundraiser, cosa ci finisce dentro? Nomi di donatori, abitudini di giving, dati su campagne legate a temi sensibili — diritti civili, salute, migranti, ambiente, cooperazione. Informazioni che, in mani sbagliate o in sistemi opachi, potrebbero creare problemi seri.
E poi c'è la questione reputazionale, che spesso sottovalutiamo. Le organizzazioni nonprofit vivono di coerenza tra valori dichiarati e scelte concrete. Se la tua campagna parla di sovranità digitale, di diritti, di Europa — e poi usi strumenti che alimentano i monopoli tecnologici americani senza pensarci due volte — qualcosa non torna. Non è moralismo, è coerenza di brand.
Scegliere Mistral, in questo senso, non è solo una scelta tecnica. È anche un messaggio.
Costruire invece di subire
L'Europa attraversa una stagione difficile, forse la più incerta dalla sua fondazione. E in questa incertezza, guardare a chi — come i francesi di Mistral — sceglie di costruire invece di subire, non è nostalgia né utopia: è una forma concreta di resistenza.
Siamo in balia di potenze che non ci chiedono il permesso. Fatichiamo a far valere la nostra voce su questioni che ci riguardano profondamente, e il rischio di essere marginalizzati — persino da chi consideriamo alleato — è una realtà con cui dobbiamo imparare a convivere senza rassegnarci.
Eppure noi europei sappiamo cosa significa rialzarsi. Abbiamo generato alcune delle più grandi conquiste della civiltà umana. Abbiamo anche prodotto, con le nostre stesse mani, alcune delle sue peggiori catastrofi. E da quelle macerie abbiamo scelto — con fatica, con contraddizioni, con un'unione imperfetta ma reale — di non ricominciare da soli.
Quella scelta non appartiene ai governi. Appartiene alle persone. A milioni di persone comuni che hanno deciso, ogni giorno, che fare la propria parte non era retorica.
Fare la propria parte significa anche questo: interrogarsi sugli strumenti che usiamo, sapere a chi appartengono, capire chi alimentiamo con le nostre scelte quotidiane. Non occorre un gesto eroico. Bastano alcune domande semplici — quale AI sto usando? chi ci guadagna? i miei dati dove vanno? — per smettere di essere consumatori passivi e tornare a essere cittadini.