Je m’attendais pas vraiment à une vidéo fouillée, avec des infos correctes, des analyses réfléchies et surtout, fait rare, des question où la réponse est “on ne sait pas”. Pas (peu) de confusion entre “IA” et “capitalisme” comme souvent dans ces conversations, une critique de l’enthousiasme des promesses technologiques mais qui laisse la porte ouverte. J’ai trouvé ça bien!



J’ai essayé des modèles locaux pour coder avec opencode ou crush. Avec 8go de vram je n’ai rien trouvé de probant. Quel modèle utilises tu ?
J’ai également 8 GB de VRAM, j’utilise un modèle un peu “vieux” (tout est relatif) :
"provider": "ollama", "model": "deepseek-coder:6.7b"Avec :
format: gguf quantization: Q4_K_M