Cara AI, ti scrivo
Potenzialità, limiti e utilizzo al meglio di ChatGPT
Tutor: Salahzar Stenvaag
Serata introduttiva su Chat GPT
A Museum Island, in Second Life, @salahzarstenvaag parla dei pregi e di limiti delle chat di intelligenza artificiale. Seguirà un corso a Edu3D, in Craft World, per capire come utilizzare al meglio questi strumenti.
ChatGPT e la rivoluzione dell’apprendimento
Incontro informale sull’uso di ChatGPT e altre AI nell’istruzione
Tutor: Salahzar Stenvaag, Irene Burresi
00:00 Intro
02:42 Esempi di giochi ed esercizi interattivi
32:00 Come semplificare il lavoro di studenti e insegnanti
51:09 Dibattito
ChatGPT e altre AI nella didattica
Tutor: Salahzar Stenvaag, Irene Burresi
00:00 Intro
08:14 Estensioni per Chrome e altri strumenti
28:08 Piattaforme AI on line e local
Addendum all’incontro del 3 maggio. Con le informazioni mancanti o che erano incomplete sul progetto RedPajama.
Il progetto RedPajama ha rilasciato nuovi modelli open-source, tra cui modelli base con 3 miliardi e 7 miliardi di parametri, un modello ottimizzato per il fine-tuning e un modello chat. Il modello da 3 miliardi è veloce e accessibile, mentre quello da 7 miliardi supera già il modello Pythia 7B, dimostrando il valore del dataset base di RedPajama. I modelli sono rilasciati con licenza Apache 2.0 per uso sia commerciale che di ricerca.
I modelli RedPajama 3B e 7B sono stati addestrati su 800 miliardi di token, e il modello 3B si è stabilizzato, mentre il 7B continua a migliorare. Il modello RedPajama-INCITE-Base-3B-v1 supera altri modelli di dimensioni simili, come GPT-Neo e Pythia-2.8B, in prestazioni con pochi esempi e zero esempi. Gli autori stanno anche lavorando alla prossima versione del dataset RedPajama, che sarà quasi il doppio delle dimensioni del dataset originale v1.
Il modello chat RedPajama 3B è stato costruito con RedPajama-INCITE-Base-3B-v1 e perfezionato sui dataset Open Assistant e Dolly 2.0. Anche se la valutazione è ancora in corso, RedPajama-INCITE-Chat-3B-v1 mostra qualità simile a Open Assistant in molti esempi.
Gli sviluppatori del modello linguistico RedPajama prevedono di rilasciare una nuova versione, RedPajama v2, con due trilioni di token. Mischieranno i dati del dataset Pile per creare un dataset più diversificato e arricchiranno la fetta di Github di RedPajama. La formazione della prima raccolta di modelli RedPajama-INCITE è stata eseguita su 3.072 GPU V100 fornite come parte del grant di calcolo su un supercomputer. Gli autori ringraziano il lavoro della comunità open-source di intelligenza artificiale, tra cui LLaMA, EleutherAI e NVIDIA, che hanno reso possibile questo progetto.
Rispetto ad altri modelli come LLaMA, RedPajama è completamente open-source e utilizzabile sia per applicazioni commerciali che non commerciali grazie alla licenza Apache 2.0. In confronto, LLaMA è utilizzabile solo per applicazioni non commerciali.
https://www.together.ai/blog/redpajama-models-v1