Je m’attendais pas vraiment à une vidéo fouillée, avec des infos correctes, des analyses réfléchies et surtout, fait rare, des question où la réponse est “on ne sait pas”. Pas (peu) de confusion entre “IA” et “capitalisme” comme souvent dans ces conversations, une critique de l’enthousiasme des promesses technologiques mais qui laisse la porte ouverte. J’ai trouvé ça bien!

  • ouille@jlai.lu
    link
    fedilink
    Français
    arrow-up
    1
    ·
    3 months ago

    J’ai essayé des modèles locaux pour coder avec opencode ou crush. Avec 8go de vram je n’ai rien trouvé de probant. Quel modèle utilises tu ?

    • Bad@jlai.lu
      link
      fedilink
      Français
      arrow-up
      1
      ·
      edit-2
      3 months ago

      J’ai également 8 GB de VRAM, j’utilise un modèle un peu “vieux” (tout est relatif) :

      "provider": "ollama",
      "model": "deepseek-coder:6.7b"
      

      Avec :

      format: gguf
      quantization: Q4_K_M