Modelli migliori di DeepSeek e come installarli localmente

Alcuni modelli di intelligenza artificiale che puoi installare localmente

Pochi giorni fa il mio compagno Pablinux detto loro come installare localmente il modello di tendenza dell'Intelligenza Artificiale. In questo post elencherò quelli che considero modelli migliori di DeepSeek e come installarli ed eseguirli sul nostro computer.

Tralasciando qualsiasi simpatia o antipatia politica, la mossa del governo cinese fu un capolavoro di marketing diplomatico degno di Sun Tzu. In contrasto con lo stile "L'elefante nella porcellana" di Donald Trump, hanno annunciato un modello che offre gratuitamente le stesse funzionalità di ChatGPT e consuma meno risorse. Solo chi segue l'argomento lo sa Esistono da tempo molti altri modelli open source (alcuni di aziende nordamericane come Meta) e le prestazioni di DeepSeek sono paragonabili a ChatGPT solo nel 5% degli utilizzi più comuni.

Modelli linguistici su larga scala

ChatGPT, DeepSeek e altri sono chiamati modelli linguistici su larga scala. Fondamentalmente Permettono all'utente di interagire con un computer utilizzando un linguaggio simile a quello utilizzato per comunicare con un altro essere umano. Per raggiungere questo obiettivo, vengono addestrati con grandi quantità di testo e regole che consentono loro di produrre nuove informazioni partendo da quelle che già possiedono.
Il suo utilizzo principale è rispondere a domande, riassumere testi, effettuare traduzioni e riprodurre contenuti.

Modelli migliori di DeepSeek e come installarli localmente

Come Pablinux, utilizzeremo Ollama. Si tratta di uno strumento che consente di installare, disinstallare e utilizzare diversi modelli open source dal terminale Linux. In alcuni casi il browser può essere utilizzato come interfaccia grafica, ma non ci occuperemo di questo argomento in questo articolo.

Affinché Ollama fornisca un'esperienza utente adeguata, è meglio avere una GPU dedicataSoprattutto nei modelli con più parametri. Tuttavia, quelli meno potenti possono essere utilizzati su un Raspberry Pi e quando ho testato modelli con 7 miliardi di parametri su un computer con 6 gigabyte e senza GPU dedicata, il computer ha funzionato senza alcun problema. Lo stesso non è accaduto con uno dei 13 miliardi.

I parametri sono le regole che il modello utilizza per costruire relazioni e modelli tra i dati. Più parametri e dati ci sono, più potente sarà il modello; quelli con meno parametri parlano spagnolo come Tarzan.

Possiamo installare Ollama con i comandi
sudo apt install curl
curl -fsSL https://ollama.com/install.sh | sh

Possiamo installare il modello con il comando:
ollama pull nombre_del modelo
Ed eseguilo con:
ollama run nombre_del_modelo
Lo disinstalliamo usando:
ollama rm nombre_del_modelo
Possiamo vedere i modelli installati digitando:
ollama list

Di seguito un piccolo elenco dei modelli che trovo più interessanti: L'elenco completo dei modelli disponibili lo trovate qui qui:

llama2-senza censure

Llama è un modello di uso generale creato da Meta. In questa versione sono state rimosse tutte le restrizioni introdotte dagli sviluppatori del progetto originale per ragioni legali o politiche.. Ha due versioni, una leggera che gestisce 8 GB e una completa che ne richiede 64. Può essere utilizzata per rispondere a domande, scrivere testi o in attività di codifica.
Si installa con:
ollama pull llama2-uncensored
E funziona con:
ollama run llama2-uncensored

codicegemma

CodeGemma è una selezione di modelli leggeri ma potenti che consentono di eseguire una varietà di attività di programmazione come completare il codice o scriverlo da zero. Comprende il linguaggio naturale, sa seguire le istruzioni e fare ragionamenti matematici.

È disponibile in 3 varianti:

  • Istruire: Trasforma il linguaggio naturale in codice e può seguire le istruzioni:
  • Codice:  Completare e generare codice da parti di codice esistente.
  • 2b: Completamento del codice più rapido.

Tinillama

Come suggerisce il nome, si tratta di una versione più piccola del modello Meta originale.. Quindi non otterrà risultati altrettanto buoni, ma se si vuole vedere come funziona un modello di Intelligenza Artificiale su hardware modesto, vale la pena provare. Ha solo 1100 miliardi di parametri.

L'utilizzo di modelli a livello locale offre il vantaggio della privacy e dell'accesso a versioni non censurate e imparziali, che in alcuni casi tendono a risultare ridicole. L'intelligenza artificiale di Microsoft si è rifiutata di crearmi l'immagine di un bassotto perché riteneva offensivo il termine "cagna". Lo svantaggio più grande sono i requisiti hardware. Sarà solo questione di provare i modelli e trovarne uno che sia abbastanza buono per le tue esigenze e che possa funzionare con l'attrezzatura che possiedi.


Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

*

*

  1. Responsabile dei dati: Miguel Ángel Gatón
  2. Scopo dei dati: controllo SPAM, gestione commenti.
  3. Legittimazione: il tuo consenso
  4. Comunicazione dei dati: I dati non saranno oggetto di comunicazione a terzi se non per obbligo di legge.
  5. Archiviazione dati: database ospitato da Occentus Networks (UE)
  6. Diritti: in qualsiasi momento puoi limitare, recuperare ed eliminare le tue informazioni.