Pour tester des IA en ligne : https://huggingface.co. Attention vous pouvez y perdre plusieurs heures ! C'est la bibliothèque open source des transformers, 1,3 million de modèles d'intelligence artificielle en 2024.
Claude : claude.ia (plus précis que ChatGPT)
ChatGTP : chatgpt.com
Mistral : chat.mistral.ai (le chat noir français, mon préféré.)
Pour ça j’ai opté pour une pratique de plus en plus locale, c’est à dire directement sur ma machine. Il vaut mieux d’ailleurs choisir une bécane puissante niveau GPU et gavée en mémoire. Pour une fois le Mac est un assez bon choix, le système Apple Silicon répond bien à la demande. Un SOC performant et agile pour les IA, mais il faudra choisir beaucoup de RAM, 16Go est un minimum pour charger aujourd’hui pas mal de modèles, mais 32Go me semble bien mieux pour travailler avec des gros modèles plus précis. Le SOC dit Pro est un bon point de départ, mais la version M de base ne démérite pas si vous avez plus de 8Go de mémoire.
Sur PC je n’ai pas eu l’occasion de pousser mes tests, mais étant aussi sur Linux, beaucoup d’outils présents sur Mac OS sont souvent disponibles également. Une grosse carte Nvidia sera nécessaire ou son équivalent chez AMD, mais ces dernières sont un peu moins chères. Il faudra que je fouille pour voir les setups des camarades PC Windows, mais à mon avis le coût in fine doit être assez proche du Mac.
Au départ je me suis posé sur LMStudio, un logiciel très pratique pour charger des modèles localement, les fameux GGUF (une sorte de .zip de l’IA), mais les modèles ne sont pas tous bien optimisés et sont très inégaux au niveau des performances. Mon camarade sur KernelDesign m’a parlé de Ollama rapidement, un projet qui sert de hub pour charger des IA localement. L’avantage c’est qu’ils proposent un choix de LLM parfaitement opérationnels, nul besoin de passer par une phase de tests. De plus Ollama fonctionne directement dans le Terminal, idéal pour charger un contexte utilisant le moins de ressources possible. Rassurez-vous vous avez aussi des logiciels (GUI) qui proposent des interfaces agréables comme celle de ChatGPT. Pour ma part j’ai choisi Enchanted, qui me permet de garder l’historique des mes chats et d’avoir un confort visuel.
LMStudio : Télécharger(Mac OS, GNU/Linux, Windows)
Ollama : Télécharger(Mac OS, GNU/Linux, Windows)
Donc vous l’aurez compris pour les Llama sur Mac OS, Ollama est indispensable, ce dernier est maintenant disponible sur Linux et Windows depuis peu. Pour l’interface, le logiciel Enchanted sera parfait. Pour Linux et Windows Hollama sera une belle interface également, d’ailleurs elle est aussi disponible sur Mac OS.
Enchanted : Télécharger (Mac OS)
Holloma : Télécharger (Mac OS, GNU/Linux, Windows)
C’est sympathique les IA qui nous écrivent mais qu’en est il de celles qui nous génèrent des images ? Pour moi c’est un peu le même constat, au départ j’ai utilisé des IA en ligne, je suis resté un moment sur Dall-e puis je me suis tourné vers Stable Diffusion avec le logiciel Diffusion Bee qui est propulsé localement également.DiffusionBee avec l'IA Flux-schnell
L’avantage des GAN c’est qu’ils sont assez légers et franchement travailler en local est intéressant car vous allez pouvoir générer un très grand nombre d’images rapidement. Idéal pour vos recherches graphiques. D’autant plus que vous pouvez ajouter des modèles spécifiques (LORA) à SD (Stable Diffusion).- Applications
DiffusionBee : Télécharger (Mac OS, Windows bientôt) pour Stable Diffusion et Flux
StabilityMatrix : Télécharger (Mac OS, GNU/Linux, Windows)
Diffusion Bee dans sa version la plus à jour propose maintenant l'usage de Flux-Schnell et Flux-Dev, ce modèle a le vent en poupe car il concurrence Midjourney ou Dall-e, et Stable Diffusion.Deux framboises skull avec l'IA Flux-schnell
L'entreprise Black-Forest-Labs a été créée par des anciens de Stable Diffusion, ce ne sont donc pas des débutants. Récemment ils se sont même payé le luxe de dépasser Midjourney techniquement parlant.- WebGUI
AUTOMATIC1111 : Télécharger (Mac OS, GNU/Linux, Windows) pour Stable Diffusion
Forge UI : Télécharger (Mac OS, GNU/Linux, Windows) pour Flux
Parlons maintenant des versions WebGUI, ce ne sont pas des applications mais des interfaces, elles sont donc plus facilement portables entre différents OS, mais de facto plus difficiles à installer. Néanmoins, elles peuvent être intéressantes car partagées facilement sur un réseau local, donc entre plusieurs personnes ou étudiants, même à distance si vous savez utiliser un serveur web. Cela vous permettra de mettre le prix dans une tour et d'utiliser un portable moins onéreux au quotidien par exemple.
Aujourd'hui les IA génératives d'images ont fait des progrès sur la taille des images fournies. Néanmoins, elle reste parfois un peu juste pour une exploitation professionnelle. Pour pallier ce problème je vous conseille l'excellent logiciel Upscayl, qui mettra à très grande échelle votre production.Upscayl, image Stable Diffusion plus un Lora
Sur Mac l'accélération matérielle est prise en compte, en revanche sur Windows ou GNU/Linux, il faudra rentrer l'ID (identifiant matériel) de votre carte graphique Nvidia RTX ou AMD pour activer cette option. Sinon par défaut c'est le CPU qui fera le travail, mais il est plus lent qu'un GPU en général. Upscayl : Télécharger (Mac OS, GNU/Linux, Windows)Il n'y a pas que Ideogram pour la typographie (private joke).
Il reste encore plein de choses à voir, mais je vous donne rendez-vous dans un prochain article autour de l'usage de Stable Diffusion et Flux. Quoi qu'il en soit vous pouvez aujourd'hui vous passer des GTP en ligne pour choisir un usage personnel localement et toujours disponible. Payer plusieurs IA sur 3 ans peut avoir un coût, et monter rapidement dans les 40 euros par mois en cumulant des LLM et des GAN, à ce prix-là vous pouvez largement vous offrir une machine totalement opérationnelle pour tout type d'IA.