Categories: BlogScienza

Un UNO in casa

Nota: non ho la minima intenzione di entrare nel tecnico con questo post – il suo scopo è prettamente ludico e di intrattenimento.
Comunque, se proprio vi interessa, ho usato le immagini docker del progetto localai ed i modelli che ho usato sono il tinylama ed il luna-ai-llama, entrambi presi da hugging face

In questi giorni a lavoro ho avuto occasione di sperimentare e giocherellare un po’ coi modelli di intelligenza artificiale (tranquilli, da domani si torna all’ordinaria amministrazione).
Per farla breve, se si paga un grosso provider (che sia openAI, microsoft o chi per loro) è abbastanza semplice generarsi il proprio piccolo chatGPT privato, e dandogli in pasto i propri documenti si può far si che risponda alle domande utilizzando le informazioni in essi contenute. Ciò è ovviamente molto utile ed ha grosse potenzialità, ma anche notevoli problematiche legate a costi e (sopratutto) alla privacy (chi avrà accesso alle mie informazioni private?)

Tutto molto interessante, certo… ma io sono un millennial italiano cresciuto negli anni ’90.

E quando leggo intelligenza artificiale, penso subito ad una cosa.

anzi, UNO

E da qui l’idea: è possibile farsi la propria piccola intelligenza artificiale, farla risiedere interamente sul proprio pc, in locale, ed chiacchierarci dei fatti propri come faceva il nostro papero mascherato preferito?

Ebbende, dopo alcune prove, posso dirvi che… si, è possibile.

In teoria.

Ho deciso quindi di provare ad installare due modelli: uno “pesante”, ciccione, ben addestrato, ed uno “leggero”, meno raffinato ma che promette di girare decentemente anche su pc domestici.
Il pc che uso per lavoro tra è già un bel mostro fuori dalla portata dei comuni mortali (per dire ha 64 gb di ram) e col modello leggero sono riuscito ad ottenere risposte in 5-10 secondi… ma sono risposte stupide.
Col modello un po’ più addestrato invece ottengo risposte decenti, ma ci mette 10-15 minuti a domanda.

Ok dai, non male come inizio.


Ho poi provato a dargli in pasto il manuale del giocatore di D&D – giusto per vedere se riusciva a rispondermi attingendo informazioni da lì e… funziona.
Ok non sono risposte che darebbe un maestro di grammatica, spesso contengono errori ma si capiscono: non sono male, per un modello casalingo addestrato in un’oretta con un solo file.

Anche se, al solito, tempi biblici.

Conclusioni dell’esperimento

Avere una piccola e limitata chatGPT totalmente in locale ed istruita coi propri documenti?
Si può fare, ma richiede risorse troppo elevate per essere alla portata di noi mortali.

Certo, basterebbe pagare quei 20$ al mese ad openAI per poter accedere al loro GPT4 ed istruirlo con quel che si vuole, con tutti i rischi di privacy del caso… ma allora dove sarebbe il bello? In ogni caso, ho capito che avendo i mezzi a disposizione in teoria si potrebbe fare. E se ci sono riuscito io (che non sono certo Evertt Ducklair) non è neanche troppo difficile… ma non ne vale la pena.

Io volevo solo vedere se potevo crearmi il mio piccolo UNO di pkna.

E sentirmi un po’ Everett


Un UNO in casa
quasimagia

View Comments

Recent Posts

Ode alla Pixel Grafica

Nelle ultime settimane ho dovuto consacrare più tempo del dovuto al lavoro - diciamo molto…

2 anni ago

Super Mario Wonder: il gioco giusto al momento giusto!

First thing first: Super Mario Wonder (da qui SMW) é uscito 4 mesi fa. Questa…

2 anni ago

Avvento TNE – Giorno 7: La Pixel Art di Snatcher

Questo non è davvero un articolo: se fossimo a Milano, diremmo che è un'esperienza. Un…

2 anni ago

Avvento TNE – Giorno 6: Parasite Eve

Non abbiamo mai fatto nulla per nascondere la nostra vena nostalgica in redazione (basti pensare…

2 anni ago

Avvento TNE – Giorno 5: Spider-Man Holiday Special 1995

Guardando i bambini che mi gravitano intorno la domanda mi è venuta spontanea: ma io…

2 anni ago

Avvento TNE – Giorno 4: Recensione Speciali Doctor Who 2023

Ok, non è esattamente un tema natalizio. MA, proprio come un calendario dell'avvento ci prepara…

2 anni ago

This website uses cookies.