Guidare la risposta di un LLM per output strutturato
Impara come strutturare la risposta di un modello linguistico per assicurare che il formato di risposta sia rispettato, come JSON
Impara come strutturare la risposta di un modello linguistico per assicurare che il formato di risposta sia rispettato, come JSON
GLiNER è un modello NER in grado di identificare qualsiasi tipo di entità utilizzando un codificatore di trasformatore bidirezionale (simile a BERT) che supera ChatGPT e altri LLM in task di classificazione dei token zero-shot
Scopri come eseguire modelli linguistici di grandi dimensioni (LLM) in locale su Windows, Mac o Linux con Ollama e Python, sfruttando il supporto GPU per prestazioni ottimali. Guida completa all'installazione e utilizzo
Progetto che usa GPT-4 (o qualsiasi altro LLM), un database vettoriale e Streamlit per navigare una base di conoscenza ampia e creare mappe mentali da essa per una migliore fruizione delle informazioni
La prompt injection è una forma di attacco cibernetico che comporta la manipolazione delle risposte di un LLM attraverso l'inserimento di istruzioni malevole nei prompt e presenta sfide uniche che richiedono contromisure specifiche
Cosa è ChatGPT, la sua genesi e la descrizione del suo funzionamento dal punto di vista tecnico. Sfide legate all'utilizzo degli LLM e prospettive future nel settore.
Impara a creare un Chatbot in Python con LangChain e RAG, è una tecnica che permette di migliorare la qualità della risposta degli LLM utilizzando un archivio dati esterno
Cosa è l'IA generativa e perché sta ridefinendo i confini del possibile attraverso tecnologie che permettono alle macchine non solo di apprendere ma anche di creare
Il prompt engineering consiste nello sviluppare e ottimizzare i prompt (cioè le domande che vengono poste al modello da parte dell'umano) al fine di ottenere risposte più precise da parte dei modelli linguistici