Vous avez un super GPU de la mort qui tue et vous voulez faire tourner un modèle d'IA en local, mais entre la VRAM dispo, la quantification qui change tout ...
llm
performance
fit
ollama
ai
ReplierReplier toutDéplierDéplier toutÊtes-vous sûr de vouloir supprimer ce lien ?Êtes-vous sûr de vouloir supprimer ce tag ?
Le gestionnaire de marque-pages personnel, minimaliste, et sans base de données par la communauté Shaarli