MistralAI è una start-up francese che ha sviluppato diversi modelli di linguaggio di grandi dimensioni (LLM) tra cui Le Chat: https://chat.mistral.ai/
Nelle ultime ore ha rilasciato importanti evoluzioni funzionali del proprio modello tra cui:
1️⃣ Flash Answers: funzionalità legata alla velocità di risposta. In pratica, Le Chat ha alla base i modelli di Mistral con la latenza minore (tempo di attesa tra quando facciamo una domanda al modello e quando otteniamo la risposta). Le Chat genera risposte veloci, fino a ~1000 token/sec. 💣
2️⃣ Si basa su diverse fonti di informazioni: oltre alla knowledge base costituita dai dati utilizzati nel pre-training dei modelli, Le Chat cerca informazioni anche attraverso web search su internet, sui social media e altre fonti.
3️⃣ Generazione di immagini: alla base della generazione di immagini di Le Chat c’è Black Forest Labs Flux Ultra che al momento è il modello leader di generazione di immagini.
4️⃣ Code Interpreter: funzionalità che permette di eseguire codice in un ambiente isolato e protetto, per creare visualizzazioni e condurre analisi in tempo reale.
Provalo subito-> https://chat.mistral.ai/
Iacopo Cricelli's AI Blog © 2024 by Iacopo Cricelli is licensed under CC BY-SA 4.0