Salut, je trouve ça intéressant, j'aimerai bien voir ça. Vous envisagez de mettre le streaming en ligne ensuite ?
Technologie - 🤖
Ici concerne le champs de domaine large de la technologie : actualités sur l'informatique, partage de programme informatique et de code, montrer vos projets Arduino, ect.
Je pense oui. On est des libristes, si on a le temps j'aimerais bien qu'on arrive à mettre en place un truc sur peertube, mais sinon on fera ça sur twitch/youtube avec replay.
Cool 👍🤗
Si vous le faites je serais dans le chat (pas l'animal). Ça a l'air amusant.
On a pas totalement décidé de ce qu'on va essayer de coder mais une piste serait de tenter de faire les composantes de base d'un jeu en-ligne pour qu'à la fin de la session les utilisateurs du chat puissent au moins se logger, se voir les uns les autres et bouger. Et probablement plus, mais ça dépend justement d'à quel point ces outils boostent notre vitesse de codage.
Je réitère, l'idée à l'air très amusante. Que vous y arriviez ou non dans le temps que vous prévoierez, d'ailleurs.
Oui, j'ai aucune idée de jusqu'où on va arriver à aller :-) Dans ma vidéo je fais en 20 minutes ce que je pensais pouvoir faire en 10 mais qui avant m'avait pris plus d'une journée. C'est dur à évaluer, j'ai l'impression de réapprendre tout mon métier.
Très franchement, je pense que si je devais utiliser un IAssistant pour mes algos, je serais complètement PAUMÉ x)
Raison de plus, générer un prompt, évaluer le résultat et l'intégrer c'est tout sauf trivial. En temps normal, tout ça est implicite entre un cerveau et sa paire de mains. Faut savoir 1) coder 2) formaliser une problématique et exprimer sa solution. On laisse la production à l'IAssistant et on compose avec.
Après, je dis ça, mais j'ai jamais utilisé d'IAssistant, j'ai encore des trucs à apprendre avant de m'y essayer.
C'est clairement un tour de main à prendre. Je l'ai pas encore, mais ça fait bientôt un mois et je l'utilise beaucoup mieux maintenant. Le truc le plus déroutant c'est que là où autrefois ma journée c'était 20 minutes de "bon, qu'est ce que je dois faire là?" et plusieurs heures à le faire, maintenant c'est à 80% du "quelle est la prochaine étape". Je passe beaucoup plus de temps à réfléchir à l'architecture, au design, aux algos et je me rends compte que c'est les parties que je préfère.
Après, c'est sur que ça fait un peu drôle de se dire que mes 25 ans d'XP à coder dans différents langages sont en train de disparaître en fumée, mais c'est la bénédiction et la malédiction de la tech: ça bouge vite et on doit tout le temps se réinventer
Je pense que ces outils vont changer pas mal de pratiques dans le milieu. Cette séance de streaming est aussi une tentative d'essayer d'en parler de façon un peu plus large.
En fin de compte, c'est un outil qui te permet de te concentrer sur la théorie plutôt que la technique. C'est assez logique, t'as accès à une base de connaissance qui va appliquer ton raisonnement, pour « peu » qu'elle comprend ton objectif, et va produire ce que tu lui demandes peu importe la techno.
Par contre, c'est vraiment sûr que ton expérience de code part en fumée ? Faut savoir coder pour review et corriger l'IAssistant ^^ Je me demande à quel point c'est traître de passer à côté d'un tout piti malloc() scélérat. En vrai je suis sûr qu'il en met pas si tu lui demandes pas.
En tout cas j'ai hâte de voir le stream si vous en faîtes un !
Mon expérience sert quand même, mais pas celle du "code", plus celle de la programmation en général.
Pour te donner une idée, j'ai récemment ajouté une fonctionnalité dans une extension VScode, c'est du typescript, un langage que je ne connais pas du tout. Bon ben j'ai décodé un peu, mais je l'ai laissé générer son truc et je lui ai dit là où je pensais que des choses se passent mal et je le laisse "coder".
Je vois ce que tu veux dire, oui. Maintenant je veux vraimens te voir à l'œuvre ;)
Intéressant!
Pour avoir particuper à un atelir il n'y a pas longtemps, c'est terriblement bluffant. Juste à partir d'un nom de module en elixir, ça générait le code approprié pour débuter un interpréteur de lambda expression
Oui, j'avais essayé de copilotes au début de la tendance et c'était pas terrible, mais on m'a forcé à réessayer récemment et c'est devenu impossoible de s'en passer.
Je me suis également ajouté un module whisperX pour parler à l'IDE. C'est vraiment magique maintenant: je lui dis, en français, ce que je souhaite, et ça me le code. Je râle sur ce qui marche pas, ça le répare!
Dans notre contexte c'était effrayant parce que le code généré était bon alors qu'on a fait quelques boulettes XD Après pour modérer un peu la chose, c'est comme le mec qui a fait générer un pacman à chatgpt en python. Bourriner des LLMs pour générer du python en le guidant fortement on est au niveau -1 de l'efficience énergétique et quand on regarde la conso des datacenters je sais pas si c'est vraiment pertinent comme utilusation.
Je pense qu'un dev qui met un jour à coder sur son desktop avec son alim à 300W et son écran à 100W consomment probablement plus que quelques requêtes à des LLMs qui vont faire la chose en 5 minutes.
On a testé des modèles locaux, ils sont pas mauvais mais clairement moins souvent corrects qu'un Claude-sonnet-3.5 par exemple, mais eux serait clairement plus efficaces énergétiquement.
Après, je trouve qu'on en fait des caisses sur la conso énergétique de ces modèles. Quand on regarde les quantités en jeu, c'est franchement pas énorme. Les journalistes ont tendance à confondre l'énergie utilisée à l’entraînement et à l'inférence, à parler de la conso des datacenters pour parler de celle de l'IA (minoritaire aujourd'hui). Y a des critiques à faire, surtout sur le modèle centralisé que quelques boites poussent (OpenAI, Anthropic) mais la conso énergétique, je pense que c'est pas l'angle le plus raisonnable.
Dans ce que j'entends sur l'aspect énergétique (et je me suis pas forcément bien exprimé dessus) c'est plus tout l'aspect autour des ressources matérielles et énergétiques de a à z : production du matériel, entrainement (en vrai comme beaucoup en informatique c'est pas l'exploitation qui consomme le plus mais bien le développement (dans un sens très large) (et encore, la boite d'evernote se vante de faire tourner 20k GPU pour un modèle d'amélioration des photos alors qu'en vrai, c'est pas essentiel). Et dans le cas que j'évoquais c'était surtout le fait de faire générer du python... quitte à avoir des IA pour faire le gros du travail, autant générer dans des langages plus efficients à l'exécution. In fine, je me suis lancé dans un tunnel mais ça dérivait un max sur du sociétal XD
Alors sur le fait que Python soit pas efficace, je te rejoins totalement. Personnellement, on va le faire en Python parce que c'est un langage dans lequel on est à l'aise et qui est populaire en ce moment. Ça aurait été ça ou JavaScript, mais moi je suis moins à l'aise dans JavaScript.
Mais par contre, un des trucs qui se passe avec ces générateurs, c'est qu'on peut justement plus facilement s'adresser à des langages plus ardus. Je pourrais faire des choses en C, j'ai déjà fait générer du C mais pour de l'arduino, pas des choses super compliquées. Mais une des choses qui est intéressante c'est que pour lui faire faire du Rust par exemple, pour parler d'un langage efficace et moderne mais bien ardu, il n'est pas mauvais et c'est quelque chose auquel je me remets doucement.
Enfin, on est vraiment juste en train de gratter la surface du truc. Ce que je pense, c'est qu'à terme on va changer fondamentalement certains langages de programmation. Voir qu'on va inventer de nouveaux langages de programmation autour de ces technologies, autour de ce qu'ils sont capables de faire.
Mon point de vue c'est que si on commence à inventer des langages dans lesquels on ne peut développer qu'avec des LLMs, c'est qu'on empire la pile de technologies douteuses qu'est l'informatique (cf un processeur moderne qui se fait passer via C et l'OS pour un processeur de pdp 11 ça donne des failles comme Spectre et Meltdown)... et que même pour générer le C, ça veut pas dire que le code généré n'a pas de fuite mémoire par exemple, ce qu'on cherche à éviter avec Rust et du coup, tu peux générer du code foireux plus vite. Je vois l'intérêt pour les ESN qui doivent vendre des bugs mais derrière si tu veux un paysage plus fiable c'est pas forcément si intéressant, d'autant que ça soulève énormément de questions non techniques et là-dessus, je pense que les ingénieurs et les développeurs devraient arrêter de se palucher sur le progrès technique peu importe le reste (comme a fait le créateur de Yolo qui a fini par arrêter la vision par ordinateur parce que l'usage qui s'est le plus démocratisé c'est la surveillance de masse)
C'est un débat qui a lieu depuis qu'on a commencé à avoir des compilateurs et des langages en fait, sur le niveau de contrôle qu'on souhaite avoir. Rappelons que la baseline contre laquelle on se compare là, c'est pas un programme parfait, c'est un programme fait par un humain moyen.
Pour avoir du bon code, on fait comme on fait quand on emploie des stagiaires ou des mauvais programmeurs: on relit, on écrit des tests. Ça reste de l'ingénierie.
En fait je pense que l'approche de réécrire des langages pour les LLMs, ça permettrait de probablement augmenter le niveau de contrôle des humains sur le code en rendant plus de choses explicites, en imposant une certain verbosité. Par exemple, avec du code généré, l'inférence de type est moins nécessaire. Une autre tendance m'a surpris: plutôt que d'ajouter une dépendance, je peux beaucoup plus facilement lui dire de rajouter les quelques fonctionnalités dont j'ai besoin, diminuant la surface d'attaque.
l’usage qui s’est le plus démocratisé c’est la surveillance de masse
N'exagérons rien, ça sert aussi à guider des missiles.
En toute franchise, je pense que j'ai pas mal de réactance vis-à-vis des LLMs pour plusieurs raison:
- peur de pas pouvoir faire carrière (pour l'instant je suis coincé sur du support n2 qui m'a foutu un bore out)
- problématique de liberté et respect du droit d'auteur, ce qui s'étend à tout l'ensemble des modèles génératifs (on se souvient du directeur IA qui dit que tout ce qui est sur internet n'attend que d'être exploité alors qu'askip, il y a eu des fuites de différents codes de leurs produits lol)
Après pour la question de l'inférence de type, si on regarde l'écosystème actuel on a :
- java/C/C++ qui sont typés explicitement (comme beaucoup d'autres)
- python qui dispose d'annotation et de mypy pour la vérifier (même compiler le code)
- rust dont les outils de dev permettent d'ajouter l'inférence de type dans l'ide De plus, sans données d'entraînement, le LLM va pas pouvoir te générer de code donc il faudra quand même du monde pour faire le premier jeu et derrière, il y a des grosses problématiques à utiliser des données générées par un modèle pour en entraîner un autre, il faut toujours de la donnée fraiche.
Quoi qu'il en soit, c'est mon côté anticapitaliste me dit que tant qu'on reste dans le modèle capitaliste, aucune avancé technologique ne sera clean et les LLMs bah c'est au niveau de l'entrainement : si tu entraîne un modèle uniquement sur du code GPL, on pourrait imaginer que ce qu'il produit et sous GPL, mais est-ce qu'entrainer from scratch sur du code gpl rend le modèle utilisable ? Sinon, il faut donc étendre avec du texte humain potentiellemet, et du coup, comment ça se passe au niveau licence ?
Pour avoir du bon code, on fait comme on fait quand on emploie des stagiaires ou des mauvais programmeurs: on relit, on écrit des tests. Ça reste de l'ingénierie.
Ça c'est un peu abandonner un idéal de qualité et se résigner à la médiocrité. Il n'y a pas besoin d'être mauvais ou stagiaire pour faire des erreurs à plusieurs centaines de milliers d'€, juste une chaine d'outils pourris en amont ou de mauvaises conceptions (je l'ai vu il y a peu) et même quand des vies sont en jeu on a pu voir des problèmes graves (coucou le régulateur toyota ou les avions boeing). D'ailleurs, je pense que le secteur informatique souffre de la hiérarchisation issue de l'industrie (ouvrier, technicien, ingénieur je suis pas sûr que ce soit pertinent pour l'informatique)....
Technologiquement, j'aime vraiment le deep learning, mais il y a tellement de trucs problématiques associés que son industrialisation m'en dégoute un peu
Je comprends, j'ai eu des périodes de AI-anxiety aussi vis à vis de mon boulot.
Après, je suis libriste anti-capitaliste aussi, et ça m'énerve qu'on pense que ces technos sont portées par les quelques boites qui se mettent en avant et qu'on ignore le rôle prépondérant de la recherche et de l'open source là dedans. La recherche et les modèles open-weight sont sur les talons des grands noms. Ils ont quelques mois de décalage, mais tu as aujourd'hui des modèles ouverts qui ont la performance du GPT-4 d'avril. Les évolutions tech précédentes étaient bien plus propriétaire que ce qui arrive autours de l'IA (j'inclue LLMs, modèles de diffusion et généralisation du DL là dedans) maintenant.
Et sur le droit d'auteur, bah en tant qu'anti-capitaliste, je dois te dire que j'ai pas spécialement d'amitié pour ce machin qui a tué plusieurs techs prometteuses dans l’œuf: le P2P, le partage de données par défaut, etc. Donc que là ils souhaitent s'arroger un droit supplémentaire, même si ça donne l'impression que je défend des connards comme Altman, je suis plutôt contre. L’ambiguïté actuelle rend impossible des modèles réellement open source (où les données d’entraînement seraient connues) et donne lieu à des situations ubuesques comme The Pile, dataset ouvert cité par plusieurs publis de recherche qu'on ne peut télécharger que par torrent car a priori illégal aux US.
Sur l'inférence de type, je me suis mal exprimé. Ce que je voulais dire c'est que j'ai vu les langages populaires proposer une inférence auto parce que c'est plus rapide et pratique (à court terme) quand tu codes à la main. Mais avec des générateurs de code on peut imaginer imposer une syntaxe beaucoup plus stricte et riche. Par exemple au niveau des déclarations de fonctions on pourrait imposer de non seulement déclarer le type, mais aussi un modèle de propriété (à la rust), des contraintes de valeur (jamais null, toujours inclu entre 0.0 et 1.0, etc.), et d'autres choses qui peuvent améliorer la vérifiabilité du code, mais qui seraient trop fastidieuse à la main pour devenir populaire.
Ça c’est un peu abandonner un idéal de qualité et se résigner à la médiocrité.
C'est un des mantras quand on commence à faire du management autours du dev: si tes procédures supposent un code parfait, tu fais pas ton boulot de manager. Oui en tant que dev, je veux atteindre le graal de la perfection. Mais faut être réaliste, même avec 25 ans d'expérience, ça reste extrêmement rare que je ponde un code parfait du premier coup. C'est bien plus responsable d'utiliser des tests, des séparer les modules par des APIs propres, de dev dans des branches, etc.
Technologiquement, j’aime vraiment le deep learning, mais il y a tellement de trucs problématiques associés que son industrialisation m’en dégoute un peu
En fait je crois qu'en ce moment je cherche un moyen de contrer ce discours dominant dans la sphère francophone. Y a vraiment très très peu de contenu positif sur ces technos et la plupart des critiques, je les trouve mal informées. Mais je sais pas comment tordre le cou à tant d'idées reçues et je suis pas sur qu'une vidéo de 3 heures sur le sujet est la bonne voie (n'est pas Franck Lepage qui veut). Du coup je vais essayer de faire un peu de contenu sur les choses que je connais bien (le dev) mais j'aimerais bien parler un peu d'économie, de théorie politique et de philo si ça prend.
J'ai la tête un peu trop dans le cirage aujouord'hui pour répondre mais
En fait je crois qu'en ce moment je cherche un moyen de contrer ce discours dominant dans la sphère francophone. Y a vraiment très très peu de contenu positif sur ces technos et la plupart des critiques, je les trouve mal informées. Mais je sais pas comment tordre le cou à tant d'idées reçues et je suis pas sur qu'une vidéo de 3 heures sur le sujet est la bonne voie (n'est pas Franck Lepage qui veut). Du coup je vais essayer de faire un peu de contenu sur les choses que je connais bien (le dev) mais j'aimerais bien parler un peu d'économie, de théorie politique et de philo si ça prend.
En vrai la partie économie, théorie politique et philo ça me tente pas mal aussi
"Savoir définir et spécifier le code" a toujours été beaucoup, beaucoup plus important que "savoir pisser du code", pour info :)
En théorie, oui, en pratique, dans ma vie pro, savoir pisser du code sans attendre que le client arrive à comprendre assez ses besoin pour produire une spec, c'est extrêmement important!
Mais ce que je veux surtout dire, c'est que si tu sais coder, t'auras des choses qui marchent. Si tu sais spécifier ton besoin, t'auras quand même besoin de quelqu'un pour les implémenter. On arrive au moment où cette dernière contrainte est en train de sauter.