Surtout pour Invité et thewild (
parce que faut savoir installer Python et le dépôt sur Github, entre autres)...
LLaMa (
l’IA de Facebook) est dispo en open source!!! Le code qui sert à faire tourner les modèles d’apprentissage, mais les modèles (
les « poids ») sont aussi dispo à « quelques endroits! »
Qu’est-ce que ça implique?
Que nous pouvons installer et utiliser l’IA sur notre
propre machine, en
local, pour l’utiliser de façon
totalement indépendante et autonome (
sans les restrictions et le bridage 
)! …et éventuellement pouvoir la «
fine tuner » pour la spécialiser comme on le veut!
Je m’y mets dès demain!
Voici quelques liens :
Pourquoi ChatGPT vient de se faire détrôner (LLaMa)
TUTO : Installer LLaMa (l’IA de Facebook) sur Mac/Linux et Windows (
Part II erreur CMake)
____________________
Àma, c’est excellent (
qu’elle se retrouve dispo pour tous, enfin, ses « poids »), car, d’une façon ou d’une autre, toutes ces nouvelles IA sont là pour durer et il est impossible de stopper leur utilisation et extrêmement difficile (
pour ne pas dire impossible) d’encadrer leur utilisation. Donc puisque les grandes entreprises (
ainsi que les nations et pays « concurrents », sans parler des escrocs et criminels) ne se gêneront pas et exploiteront naturellement ces IA dans leurs propres intérêts, le fait que le code (
et surtout les « poids » d’apprentissage) de certaines IA soit open source (
et/ou dispo en Torrent et « ailleurs ») servira à mon avis de « contrepoids, de rapport de force dans la mesure où il n’y aura pas que les Gouvs, les milliardaires, les grandes entreprises et certaines organisations qui pourront les exploiter (
en bypassant ce qui est bridé dans les version publique, en plus).
Ça me rassure! Étant donnée la « nature » d’internet, s’il est possible à nous tous (
comme plusieurs autres logiciels, dispo depuis toujours en version craquée) de les exploiter sur nos propres machines, ça empêchera au moins aux riches, puissants et corrompus d’avoir un trop grand avantage sur tous les autres, en l’occurrence sur « le peuple ».
Bon, ok, faut posséder un minimum de connaissances et avoir un PC récent~puissant, mais ça change tout quand même! J’avais peur que cela soit, à terme, réservé à l’élite et/ou très coûteux à utiliser. De plus, tous ceux qui codent quelque peu, qui se débrouillent avec l’informatique, bref qui sont le moindrement geek vont probablement les utiliser de façon autonome. Il se créera des communautés, tout comme pour Linux, etc.
Pour moi, dans les circonstances (
impossible à encadrer et contrôler), c’est la meilleure chose qui pouvait arriver pour faire rapport de force et éviter que seules les élites puissent les exploiter!
Sinon, en ce qui concerne l’audio et la vidéo, l’avantage des riches demeurera quand même dans la mesure où un particulier ne pourra pas se payer les GPU à 20K $ requis pour faire tourner certaines de ses IA, mais, encore une fois, certains groupes de «
geeks », vont pouvoir faire rapport de force.
Sinon moi, ce qui m’intéresse tout particulièrement (
et pourquoi je vais tenter de l’installer), c’est afin de pouvoir l’instruire moi-même, de pouvoir décider avec quoi j’augmente son « poids d’apprentissage » (
ça semble un tantinet plus compliqué, mais tout à fait faisable, selon mes premières investigations). Je repasserai donner des
news dans quelque temps.
Pour ceux que ça intéresse, OpenAI a mis son api de reconnaissance vocale Whisper en Open Source et, elle aussi, il est possible de l’installer en local (
mais faut de la puissance par contre) :
Comment installer et déployer Whisper