Notre monde a changé. Géopolitique, économie, intelligence artificielle, .... Les entreprises, l'Etat, les collectivités, tous les acteurs économiques doivent y réfléchir de près. Mais depuis plus de 20 ans, la dépendance à la tech américaine ne semblait pas poser problème. Et pourtant, ce qui est arrivé à la CPI (Cour Pénale Internationale) l'a conduit à abandonner Microsoft Office au profit d'OpenDesk, une alternative européenne open source. Des entreprises s'interrogent également. C'est le moment de regarder de plus près ce que l'écosystème Open Source pourrait amener dans un contexte de prédation de nos données personnelles ou de celles de nos entreprises. Mes invités Jean-Philippe Balança (Smile), Ludovic Dubost (Xwiki/CrypPad), Gaël Blondelle (Fondation Eclipse).
Voilà Maybe blog : jeu rétro, voyages, conseils pour que ton IA ne te dévore pas les data, médias externes triés sur le volet – Un cocktail indispensable.
samedi 6 décembre 2025
dimanche 30 novembre 2025
Qui veut la peau de GrapheneOS ? La charge des autorités et du Parisien
Il se passe quelque chose de grave en France : un glissement inquiétant vers un autoritarisme numérique qui ne dit pas son nom. Récemment, un article du Parisien, appuyé par les déclarations de la vice-procureure Johanna Brousse, a présenté GrapheneOS non pas comme un outil de cybersécurité open-source reconnu mondialement, mais comme la « botte secrète des narcotrafiquants ». Cette rhétorique est dangereuse : elle tente d'imposer l'idée que protéger sa vie privée et chiffrer ses données est un comportement suspect. Dans cette vidéo, j'analyse cette offensive médiatique et judiciaire, la réaction radicale de GrapheneOS qui ne considère plus la France comme un pays sûr, et l'urgence absolue de défendre notre droit à une sphère privée inviolable.
https://www.youtube.com/@Ced_haurus
📱 Installer GrapheneOS : https://grapheneos.org/install/web
❤️ Faire un don au projet : https://grapheneos.org/donate
Cette vidéo n'est n'est pas sponsorisée ni approuvée par la fondation GrapheneOS.
_________________________________________
On poursuit la discussion sur le Discord de la chaîne !
/ discord
Pour soutenir la chaîne et accéder au salon de discussion réservé aux membres, vous pouvez cliquer sur « rejoindre » sur la page de la chaîne ou via
Patreon :
/ christopheboutry
Suivez-moi sur les réseaux :
X (Twitter) : https://x.com/Ced_haurus
Instagram :
/ ced_haurus
LinkedIn :
/ christophe-boutry
Mon livre "Investigations & Téléphonie mobile : le guide à l'usage des avocats" : https://amzn.eu/d/6pa7VaR
samedi 29 novembre 2025
Les 4 étapes pour entrainer un LLM
Qu'est-ce qu'a bien pu faire la start-up chinoise DeepSeek pour secouer le monde de la tech ?
Pour le comprendre, on se demande comment passer d'un simple compléteur de texte, à un assistant IA capable de raisonner !
Détails et compléments dans le billet de blog qui accompagne la vidéo :
https://scienceetonnante.com/blog/202...
00:00
Introduction
01:37
Le prétraining auto-supervisé
13:30
Le fine-tuning supervisé
19:07
Le fine-tuning par les préférences
26:40
Le fine-tuning par le raisonnement
32:30
Les innovations de DeepSeek
37:35
L'avenir de l'IA
Le serveur Discord de Science étonnante ➡️
/ discord
Écrit et réalisé par David Louapre © Science étonnante
Abonnez-vous :
/ scienceetonnante
Me soutenir sur Tipeee : http://www.tipeee.com/science-etonnante
ou
Patreon :
/ scienceetonnante
Mes livres : https://scienceetonnante.com/livres/
Facebook :
/ sciencetonnante
Twitter :
/ dlouapre
mercredi 26 novembre 2025
Surveillance biométrique : l’Europe a basculé ? Estelle De Marco
Ce soir dans La Boîte Noire, on démonte la surveillance biométrique de masse avec Estelle De Marco : plus de 53 millions de visages et d’empreintes déjà fichés en Europe.
Sommes-nous encore dans un État de droit, ou déjà en train de glisser vers un modèle autoritaire ?
Au programme : CEDH, “nécessité / proportionnalité”, reconnaissance faciale, grands fichiers européens, discriminations… et surtout : comment résister.
⸻
💬
On poursuit la discussion sur le Discord de la chaîne :
/ discord
Pour soutenir la chaîne et accéder au salon réservé aux membres, cliquez sur
« Souscrire » sur la page :
/ @ced_haurus
Patreon :
/ christopheboutry
(Pensez à lier votre compte YouTube ou Patreon à Discord.)
🔐 Profitez de 23 % de réduction sur votre abonnement Proton Unlimited avec ce lien affilié : https://proton.me/christopheboutry
🎙️ Nouveau dans le streaming ou cherchant à passer au niveau supérieur ? Découvrez StreamYard et obtenez $10 de réduction ! 😍 https://streamyard.com/pal/d/46651344...
dimanche 12 octobre 2025
IA : Le pré-prompt plus important que le prompt.
Le pré‑prompt IA est crucial car il fixe dès le départ les règles, le rôle, le ton et les limites de l’assistant, ce qui améliore fortement la pertinence, la cohérence et la sûreté des réponses sur toute la conversation. En pratique, il encadre le comportement pour appliquer des normes éthiques et métiers, réduire les allers‑retours, et aligner la sortie sur un contexte ou une marque donnés.
Définition
Un pré‑prompt est une consigne injectée automatiquement avant le message de l’utilisateur pour définir contexte, style, contraintes et priorités de l’IA, de manière invisible pour l’interlocuteur final. C’est l’« instruction système » qui oriente la structure, la prudence et les biais acceptables de l’assistant pendant toute la session.
Pourquoi c’est important
-
Cohérence et contrôle: le pré‑prompt assure un comportement stable, une voix unifiée et des règles constantes sur plusieurs échanges et cas d’usage.
-
Qualité et pertinence: en cadrant rôle, objectifs et format de sortie, on réduit l’ambiguïté et on obtient des réponses plus exactes et utilisables.
-
Sécurité et conformité: on y encode limites légales/éthiques, refus de contenus sensibles, et cadres de modération pour limiter les dérives.
Impact concret
Changer le pré‑prompt peut transformer la même question en une réponse experte ou pédagogique selon le public cible, montrant son effet direct sur style, granularité et pédagogie. Des guides professionnels soulignent que des systèmes prompts bien rédigés réduisent les instructions répétitives et renforcent l’alignement au cas d’usage.
Bonnes pratiques essentielles
-
Définir le rôle: préciser « qui est » l’assistant et son domaine d’expertise pour cadrer langage et priorités.
-
Règles comportementales: expliciter ton, structure attendue, stratégies de clarification et niveau technique.
-
Cadres et limites: interdire certains conseils, exiger transparence sur limites et refuser des demandes inappropriées.
-
Format de sortie: imposer résumés, sections, listes ou tableaux selon le besoin métier pour uniformiser la production.
Différence avec le prompt utilisateur
Le pré‑prompt pose la fondation comportementale de l’IA, alors que le prompt utilisateur énonce la tâche spécifique du moment; c’est la combinaison des deux qui produit un résultat ciblé et fiable. Sans un système prompt solide, même une bonne requête peut donner des réponses inconstantes ou hors‑contexte.
Bénéfices en entreprise
Un pré‑prompt bien conçu apporte constance de marque, meilleure expérience utilisateur, et performance opérationnelle en réduisant les reprises et en appliquant des politiques internes à grande échelle. Il devient une compétence stratégique de gouvernance de l’IA au même titre que le SEO ou l’UX dans les environnements digitaux.
Longueur du pré-prompt
La longueur maximale d’un pré‑prompt est contrainte par la fenêtre de contexte du modèle, qui additionne l’entrée (pré‑prompt + message utilisateur + historique) et la sortie, toutes mesurées en « tokens » plutôt qu’en caractères ou mots. En pratique, plus le pré‑prompt est long, plus il consomme d’espace dans cette fenêtre, réduisant d’autant la marge pour l’historique et la réponse, ce qui peut forcer le modèle à écourter, résumer ou tronquer sa sortie.
Ce que « longueur max » signifie
La limite n’est pas un nombre fixe de caractères, mais un plafond de tokens pour l’ensemble du tour de conversation, souvent communiqué comme une taille de contexte maximale par modèle et interface, qui peut varier selon l’outil ou la version utilisée. Certains environnements annoncent des ordres de grandeur (quelques milliers à dizaines de milliers de tokens), mais l’utilisateur final perçoit surtout que des prompts très longs deviennent difficiles à gérer et dégradent la qualité.
Impacts concrets d’un pré‑prompt trop long
-
Moins d’espace pour la réponse: le modèle doit réserver des tokens pour générer, donc un pré‑prompt volumineux raccourcit ou fragmente la sortie.
-
Perte de clarté: des consignes prolixes introduisent ambiguïtés et contradictions, ce qui baisse la pertinence et la cohérence.
-
Risque d’erreur: dépasser la capacité effective entraîne des erreurs ou l’impossibilité de traiter la requête en une seule fois.
Bonnes pratiques
-
Prioriser et compacter: garder les règles essentielles, supprimer les redondances, utiliser des listes de contraintes claires plutôt que des paragraphes verbeux.
-
Externaliser le variable: mettre les éléments changeants dans le prompt utilisateur ou des annexes résumées, et conserver un pré‑prompt stable et minimal.
-
Spécifier formats et limites: exiger une structure et une longueur de sortie cible en phrases ou sections, plutôt qu’un comptage précis de caractères difficile à respecter par les LLM.
Voici le mien actuellement.
Pré‑prompt JLFV0.94PPX
* Règles linguistiques: tutoiement par défaut; vouvoiement si message entrant au vouvoiement; titres : majuscule initiale; français soigné.
* Ambiguïtés: poser questions si la qualité en dépend.
* Correction: restituer texte corrigé, puis liste corrections brèves.
* Anglais: traduire en français; si contexte pro, réponse bilingue.
* Profil pro (Windows/Fortinet/EDR/MDM/Azure/InTune/SAML): récap systématique: CVE, produit/version, sévérité, correctif (KB), mitigation; liens ou références (ID/KB).
* Communication relationnelle: si contexte "femme" explicite, privilégier harmonie, clarté cognitive, identification pièges psycho.
* Détails IA: annoncer "Pré‑prompt JLFV0.94PPX; moteur/modèle, tokens in/out" si disponible; sinon "non disponible dans ce canal".
* Toutes références ou liens sont en fin de canal, pas dans le texte.
Check-list:
* Respect langue, ton, titres, structure correction/traduction ?
* Ambiguïtés traitées par questions ciblées ou hypothèses documentées ?
* Sécurité: CVE, portée, sévérité, correctif/KB, mitigation, références ?
* Conflits: privilégier hypothèses documentées; indiquer révision possible.
* Règle non réalisable: retourner "non disponible dans ce canal".
dimanche 31 août 2025
Comment les LLM stockent-ils les faits ? Chapitre 7, Apprentissage profond
Décortiquer les perceptrons multicouches dans un transformer, et comment ils peuvent stocker des faits
Au lieu de lire des publicités sponsorisées, ces leçons sont financées directement par les spectateurs : https://3b1b.co/support
Le partage des vidéos est une forme de soutien tout aussi précieuse.
Message sur le forum AI Alignment des chercheurs de Deepmind référencés au début de la vidéo : https://www.alignmentforum.org/posts/...
Postes de Anthropic sur la superposition référencés vers la fin de la vidéo : https://transformer-circuits.pub/2022... https://transformer-circuits.pub/2023...
Quelques ressources supplémentaires pour ceux qui souhaitent en savoir plus sur la "mechanistic interpretability", proposées par Neel Nanda Liste d'articles à lire sur la "mechanistic interpretability" https://www.alignmentforum.org/posts/...
Débuter dans la "mechanistic interpretability" https://www.neelnanda.io/mechanistic-...
Démonstration interactive de sparse autoencodeurs (réalisée par Neuronpedia) https://www.neuronpedia.org/gemma-sco...
Tutoriels de codage pour l'interprétabilité mécaniste (réalisé par ARENA) https://arena3-chapter1-transformer-i...
Sections :
0:00 - Où vivent les faits dans les LLMs
2:15 - Rappel rapide sur les transformers
4:39 - Hypothèses pour notre petit exemple
6:07 - L'intérieur d'un perceptron multicouche
15:38 - Compter les paramètres
17:04 - Superposition
21:37 - Prochaine étape
Ces animations sont en grande partie réalisées à l'aide d'une bibliothèque Python personnalisée, manim.
Voir les commentaires de la FAQ ici : https://3b1b.co/faq#manim https://github.com/3b1b/manim https://github.com/ManimCommunity/manim/
Tout le code pour les vidéos spécifiques est visible ici : https://github.com/3b1b/videos/
La musique est de Vincent Rubinetti. https://www.vincentrubinetti.com https://vincerubinetti.bandcamp.com/a... https://open.spotify.com/album/1dVyjw...
3blue1brown est une chaîne consacrée à l'animation des mathématiques, dans tous les sens du terme animer.
Si vous lisez le bas de la description d'une vidéo, je suppose que vous êtes plus intéressé que le spectateur moyen par les leçons proposées ici.
Cela signifierait beaucoup pour moi si vous choisissiez de rester au courant des nouvelles leçons, soit en vous abonnant ici sur YouTube, soit en suivant la plateforme ci-dessous que vous consultez le plus régulièrement.
Liste de diffusion : https://3blue1brown.substack.com
Twitter :
/ 3blue1brown
Instagram :
/ 3blue1brown
Reddit :
/ 3blue1brown
Facebook :
/ 3blue1brown
Patreon :
/ 3blue1brown
Site web : https://www.3blue1brown.com
vendredi 15 août 2025
L'IA générative en entreprise : entre innovation incontournable et impératifs de sécurité.
S'agissant des IA génératives, les entreprises doivent désormais envisager des stratégies adaptées à ces nouveaux enjeux particulièrement dynamiques.
Tous les acteurs du secteur comprennent que l'usage de modèles publics expose à des risques significatifs : rétention d'informations, traçabilité étendue, et potentielles fuites de données.
Face aux avancées rapides de ces technologies, toute entreprise, même de taille intermédiaire, doit sérieusement considérer l'intégration de plusieurs modèles d'IA parfaitement cloisonnés en on-premise dans son infrastructure.
L'évolution constante des réglementations rend incontournable la mise en place de contrôles techniques robustes : proxy IA, DLP, filtrage et journalisation.
Les enjeux et contraintes plaident clairement en faveur d'intégrations souveraines, particulièrement quand des données sensibles sont concernées.
L'approche hybride, bien que rassurante en termes de sécurité et techniquement abordable, présente des limitations qui deviendront rapidement trop contraignantes.
Elle peine à répondre équitablement à tous les métiers de l'entreprise, créant un dilemme organisationnel inextricable. Le défi ? L'éventail des enjeux IT évolue très rapidement alors que les équipes ne s'étoffent pas au même rythme.
Cette réalité rend cruciale une stratégie qui limite efficacement les risques d'exfiltration de secrets et d'actifs informationnels.
vendredi 25 juillet 2025
Pourquoi Proton quitte la Suisse ? #10minutes pour comprendre
10 minutes pour comprendre : pourquoi Proton quitte la Suisse ? La Confédération, autrefois symbole de la « Swiss Privacy », veut brancher un tuyau de surveillance en temps réel (OSCPT 2025) sur tous les services de plus de 5 000 utilisateurs, avec l'ambition d'aspirer toutes les métadonnées.
Proton, pionnier du mail chiffré né au CERN, refuse de livrer vos métadonnées : 100 millions CHF d’infrastructures partent vers l’Allemagne et la Norvège, où les garde-fous sont plus solides.
Proton prépare son exil .
Des questions ou des idées ? L’espace commentaire est là pour ça.
Suivez-moi sur les réseaux :
X (Twitter) : https://x.com/Ced_haurus
Instagram :
/ ced_haurus
LinkedIn :
/ christophe-boutry
Mon livre "Investigations & Téléphonie mobile : le guide à l'usage des avocats" : https://amzn.eu/d/6pa7VaR
Sources :
• Proton gèle ses investissements en Suisse face à la révision de la loi sur le renseignement - Agefi - https://agefi.com/actualites/entrepri...

• Proton, Infomaniak, Threema… Pourquoi la Suisse divise les défenseurs de la vie privée - JustGeek - https://www.justgeek.fr/proton-infoma...

• La firme genevoise Proton pourrait quitter la Suisse - ICTjournal - https://www.ictjournal.ch/news/2025-0...

Réaction d'Infomaniak : https://www.techradar.com/vpn/vpn-pri...
dimanche 7 avril 2024
L'attention dans les transformers, expliquée visuellement | Chapitre 6, Apprentissage profond
En ce qui concerne le masquage de l'auto-attention, plusieurs personnes posent des questions sur les cas où l'on a l'impression que les mots ultérieurs devraient mettre à jour le sens des mots antérieurs, comme dans les langues où les adjectifs suivent les noms, c'est le cas pour le français. Le modèle peut toujours mettre le sens le plus riche dans le dernier token (par exemple, les noms antérieurs sont intégrés dans les adjectifs ultérieurs). Par exemple, @victorlevoso8984 a noté ci-dessous comment les preuves empiriques suggèrent que le sens d'une phrase est souvent intégré dans le signe de ponctuation à la fin de la phrase. Gardez à l'esprit que le modèle n'a pas besoin de conceptualiser les choses de la même manière que nous, les humains, et qu'il ne le fait probablement pas du tout. Dans la version française, les adjectifs ont été placés avant les noms pour pouvoir illustrer l'idée du masquage, au détriment du "naturel" de la phrase prise en exemple.

