Non ho fatto in tempo a dedicare un post alle modalità per accedere a ChatGPT nonostante il blocco – la VPN integrata nel browser Opera, il browser Tor, l'estensione di Firefox VeePN, per non parlare delle alternative non altrettanto valide e funzionali PizzaGPT e Vate.ai – che OpenAI ha riaperto la piattaforma in Italia «garantendo più trasparenza e più diritti a utenti e non utenti europei».
Colgo l'occasione per riportare la traduzione dell'OpenAI Glossary Cheat Sheet – in inglese il "cheat sheet" è il bigliettino nascosto dagli scolari per copiare ai compiti in classe, cosa che io non ho mai fatto, lo giuro! ;-) – disponibile su Finxter. Avevo iniziato a seguire quel sito per perfezionare le mie conoscenze di Python, ma ultimamente il titolare Christian Mayer sembra presissimo soprattutto da applicazioni come le criptovalute – che mi interesserebbero pure, se solo avessi tempo per capire a cosa servono e come funzionano ;-) – e, appunto, ChatGPT. Adesso che quest'ultima è tornata accessibile dall'Italia, mi sarà più facile esercitarmi.
API di OpenAI: L'API di OpenAI è un servizio fornito da OpenAI che consente agli sviluppatori di accedere e utilizzare i propri modelli di intelligenza artificiale, come ChatGPT, per varie applicazioni.
Auto-attenzione: L'auto-attenzione è un tipo di meccanismo di attenzione utilizzato nei trasformatori che consente al modello di mettere in relazione diverse posizioni di una singola sequenza.
BERT (Bidirectional Encoder Representations from Transformers): BERT è un modello pre-addestrato basato su trasformatore sviluppato da Google per attività di comprensione del linguaggio naturale, che può essere sottoposto a fine-tuning per applicazioni specifiche.
ChatGPT: ChatGPT è un modello di intelligenza artificiale conversazionale sviluppato da OpenAI basato sull'architettura GPT, progettato per generare risposte simili a quelle umane nelle conversazioni basate su testo.
DALL-E: DALL-E è un modello di intelligenza artificiale sviluppato da OpenAI che genera immagini a partire da descrizioni testuali, combinando la comprensione del linguaggio naturale con capacità di generazione di immagini.
Deep Learning: Il Deep Learning o apprendimento profondo è un sottocampo del Machine Learning o apprendimento automatico che utilizza reti neurali artificiali per modellare schemi complessi e fare previsioni o prendere decisioni in base ai dati di input.
Elaborazione del linguaggio naturale (Natural Language Processing, NLP): La NLP è un campo dell'intelligenza artificiale che si concentra sull'abilitare i computer a comprendere, interpretare e generare il linguaggio umano.
Few-shot Learning: Il Few-shot Learning (apprendimento con pochi colpi) è un approccio di Machine Learning o apprendimento automatico in cui un modello può adattarsi rapidamente a nuove attività imparando da un numero limitato di esempi etichettati.
Finestra di contesto: La finestra di contesto è il numero massimo di token che un modello linguistico può elaborare in un singolo passaggio, determinando la sua capacità di acquisire il contesto nei dati di input.
Fine-tuning: Il Fine-tuning è il processo di adattamento di un modello pre-addestrato per un'attività specifica addestrandolo su dati etichettati relativi a tale attività, affinandone le prestazioni.
GPT (Generative Pre-trained Transformer): GPT è una serie di modelli di intelligenza artificiale sviluppati da OpenAI, progettati per attività di elaborazione del linguaggio naturale e in grado di generare testo coerente e contestualmente rilevante.
GPT-3.5: GPT-3.5 è una versione intermedia della serie GPT, che colma il divario tra GPT-3 e GPT-4 in termini di dimensioni e capacità del modello.
GPT-4: GPT-4 è un'ipotetica versione più avanzata della serie GPT, che dovrebbe avere dimensioni del modello più grandi e capacità migliorate rispetto ai suoi predecessori.
InstructGPT: InstructGPT è un modello di intelligenza artificiale conversazionale sviluppato da OpenAI, progettato per seguire le istruzioni fornite nei prompt, consentendogli di generare risposte più accurate e specifiche per l'attività.
Intelligenza artificiale generale (Artificial General Intelligence, AGI): AGI si riferisce a un'ipotetica intelligenza artificiale in grado di eseguire qualsiasi compito intellettuale che un essere umano possa svolgere, dimostrando capacità cognitive simili a quelle umane in diversi ambiti.
LaMDA: LaMDA è il modello di intelligenza artificiale conversazionale di Google progettato per intraprendere conversazioni su un ambito aperto, comprendere e generare risposte per un'ampia gamma di argomenti.
Large Language Model: I Large Language Model sono modelli di intelligenza artificiale addestrati su grandi quantità di dati di testo, in grado di comprendere e generare testo simile a quello umano.
Meccanismo di attenzione: I meccanismi di attenzione nelle reti neurali consentono ai modelli di pesare l'importanza di diversi elementi di input l'uno rispetto all'altro, migliorando la loro capacità di catturare il contesto.
Midjourney: Midjourney si riferisce a un punto intermedio nello sviluppo delle tecnologie di intelligenza artificiale, a significare i progressi compiuti pur riconoscendo che c'è ancora molto da fare.
Modelli di diffusione: I modelli di diffusione sono una classe di modelli che rappresentano la diffusione di informazioni, influenze o altri fenomeni attraverso una rete.
OpenAI: OpenAI è un'organizzazione di ricerca sull'intelligenza artificiale che si concentra sullo sviluppo dell'intelligenza artificiale generale (AGI) a vantaggio di tutti.
Pre-addestramento: Il pre-addestramento è la fase iniziale dell'addestramento di un modello di Deep Learning o apprendimento profondo su un set di dati di grandi dimensioni, spesso senza supervisione.
Problema di allineamento: Il problema di allineamento è la sfida di progettare sistemi di intelligenza artificiale che comprendano e agiscano in base a intenzioni, valori e obiettivi umani, piuttosto che ottimizzare per obiettivi non previsti.
Prompt: I prompt sono testo di input fornito a un modello linguistico per generare una risposta o completare un'attività specifica.
Prompt Engineering: Il Prompt Engineering è il processo di progettazione di prompt efficaci per ottenere le risposte desiderate dai modelli linguistici, migliorandone l'utilità e l'affidabilità.
Reinforcement Learning from Human Feedback (RLHF): RLHF è un metodo che combina il Reinforcement Learning o apprendimento per rinforzo con il feedback umano, permettendo ai modelli di intelligenza artificiale di apprendere e adattarsi alle preferenze e ai valori umani.
Rete neurale artificiale: Una rete neurale artificiale è un modello computazionale ispirato alla struttura e alla funzione del cervello umano, costituito da nodi interconnessi chiamati neuroni che elaborano e trasmettono informazioni.
Retropropagazione: La retropropagazione è un algoritmo di ottimizzazione ampiamente utilizzato nelle reti neurali che riduce al minimo l'errore tra gli output previsti e gli output reali regolando i pesi del modello.
Sicurezza dell'Intelligenza Artificiale: La sicurezza dell'Intelligenza Artificiale è lo studio e la pratica della costruzione di sistemi di intelligenza artificiale che operano in modo sicuro e in linea con i valori umani, assicurando che diano beneficio all'umanità senza causare danni.
Singolarità: Un punto teorico nel futuro in cui i progressi dell'intelligenza artificiale porteranno a cambiamenti rapidi, incontrollabili e trasformativi nella società, superando potenzialmente la comprensione umana.
Stable Diffusion: Stable Diffusion è un'area di ricerca incentrata sul miglioramento dell'addestramento di modelli di intelligenza artificiale su larga scala introducendo stabilità e controllabilità durante il processo di diffusione.
Supervised Learning: Il Supervised Learning o apprendimento supervisionato è un approccio di Machine Learning o apprendimento automatico in cui un modello viene addestrato su un set di dati contenente coppie di input-output, imparando a prevedere gli output in base a nuovi input.
Token: Un token è un'unità di testo, ad esempio una parola o sottoparola, che funge da input per un modello linguistico.
Tokenizer: Un tokenizer è uno strumento che suddivide il testo in singoli token per l'elaborazione da parte di un modello linguistico.
Trasformatore: Il trasformatore è un'architettura di Deep Learning o apprendimento profondo progettata per attività da sequenza a sequenza, nota per il suo meccanismo di auto-attenzione che aiuta a catturare dipendenze a lungo raggio nei dati.
Unsupervised Learning: L'Unsupervised Learning o apprendimento non supervisionato è un approccio di Machine Learning o apprendimento automatico in cui un modello apprende schemi e strutture all'interno dei dati di input senza etichette di output esplicite, spesso attraverso il clustering o la riduzione della dimensionalità.
Zero-shot Learning: Lo Zero-shot Learning è un approccio di Machine Learning o apprendimento automatico in cui un modello può fare previsioni o completare attività senza essere addestrato in modo esplicito sui dati di tale attività.
Mi sono presa la libertà di disporre le voci in ordine alfabetico, com'è giusto che sia in un glossario! ;-) A parte questo, la traduzione l'ho fatta abbastanza di fretta, quindi eventuali segnalazioni di correzioni e integrazioni da fare saranno le benvenute.
Nessun commento:
Posta un commento