Affichage des articles dont le libellé est PureIT. Afficher tous les articles
Affichage des articles dont le libellé est PureIT. Afficher tous les articles

dimanche 30 novembre 2025

Qui veut la peau de GrapheneOS ? La charge des autorités et du Parisien

Il se passe quelque chose de grave en France : un glissement inquiétant vers un autoritarisme numérique qui ne dit pas son nom. Récemment, un article du Parisien, appuyé par les déclarations de la vice-procureure Johanna Brousse, a présenté GrapheneOS non pas comme un outil de cybersécurité open-source reconnu mondialement, mais comme la « botte secrète des narcotrafiquants ». Cette rhétorique est dangereuse : elle tente d'imposer l'idée que protéger sa vie privée et chiffrer ses données est un comportement suspect. Dans cette vidéo, j'analyse cette offensive médiatique et judiciaire, la réaction radicale de GrapheneOS qui ne considère plus la France comme un pays sûr, et l'urgence absolue de défendre notre droit à une sphère privée inviolable.

https://www.youtube.com/@Ced_haurus

📱 Installer GrapheneOS : https://grapheneos.org/install/web 
❤️ Faire un don au projet :
https://grapheneos.org/donate 

Cette vidéo n'est n'est pas sponsorisée ni approuvée par la fondation GrapheneOS. _________________________________________ 

On poursuit la discussion sur le Discord de la chaîne !
  / discord   
Pour soutenir la chaîne et accéder au salon de discussion réservé aux membres, vous pouvez cliquer sur « rejoindre » sur la page de la chaîne ou via 

Patreon :
  / christopheboutry   
Suivez-moi sur les réseaux : X (Twitter) :
https://x.com/Ced_haurus 
Instagram :
  / ced_haurus  
 LinkedIn :
  / christophe-boutry   

Mon livre "Investigations & Téléphonie mobile :  le guide à l'usage des avocats" :
https://amzn.eu/d/6pa7VaR

samedi 29 novembre 2025

Les 4 étapes pour entrainer un LLM

Qu'est-ce qu'a bien pu faire la start-up chinoise DeepSeek pour secouer le monde de la tech ?

Pour le comprendre, on se demande comment passer d'un simple compléteur de texte, à un assistant IA capable de raisonner ! 

 


Détails et compléments dans le billet de blog qui accompagne la vidéo : 
https://scienceetonnante.com/blog/202...
00:00 

Introduction 01:37 
Le prétraining auto-supervisé
13:30 
Le fine-tuning supervisé
19:07 
Le fine-tuning par les préférences
26:40 
Le fine-tuning par le raisonnement
32:30 
Les innovations de DeepSeek
37:35 
L'avenir de l'IA 

Le serveur Discord de Science étonnante ➡️
  / discord   Écrit et réalisé par David Louapre © Science étonnante 

Abonnez-vous :
   / scienceetonnante   
Me soutenir sur Tipeee :
http://www.tipeee.com/science-etonnante ou 
Patreon :
  / scienceetonnante   
Mes livres :
https://scienceetonnante.com/livres/ 
Facebook :
  / sciencetonnante   Twitter :   / dlouapre  

mercredi 26 novembre 2025

Surveillance biométrique : l’Europe a basculé ? Estelle De Marco



Ce soir dans La Boîte Noire, on démonte la surveillance biométrique de masse avec Estelle De Marco : plus de 53 millions de visages et d’empreintes déjà fichés en Europe.
Sommes-nous encore dans un État de droit, ou déjà en train de glisser vers un modèle autoritaire ?
Au programme : CEDH, “nécessité / proportionnalité”, reconnaissance faciale, grands fichiers européens, discriminations… et surtout : comment résister. ⸻ 💬 

On poursuit la discussion sur le Discord de la chaîne :   / discord   

Pour soutenir la chaîne et accéder au salon réservé aux membres, cliquez sur 
« Souscrire » sur la page :
   / @ced_haurus    

Patreon :   / christopheboutry   (Pensez à lier votre compte YouTube ou Patreon à Discord.) 

🔐 Profitez de 23 % de réduction sur votre abonnement Proton Unlimited avec ce lien affilié : https://proton.me/christopheboutry 

🎙️ Nouveau dans le streaming ou cherchant à passer au niveau supérieur ? Découvrez StreamYard et obtenez $10 de réduction ! 😍 https://streamyard.com/pal/d/46651344...


dimanche 12 octobre 2025

IA : Le pré-prompt plus important que le prompt.

 

 


 

Le pré‑prompt IA est crucial car il fixe dès le départ les règles, le rôle, le ton et les limites de l’assistant, ce qui améliore fortement la pertinence, la cohérence et la sûreté des réponses sur toute la conversation. En pratique, il encadre le comportement pour appliquer des normes éthiques et métiers, réduire les allers‑retours, et aligner la sortie sur un contexte ou une marque donnés.

Définition

Un pré‑prompt est une consigne injectée automatiquement avant le message de l’utilisateur pour définir contexte, style, contraintes et priorités de l’IA, de manière invisible pour l’interlocuteur final. C’est l’« instruction système » qui oriente la structure, la prudence et les biais acceptables de l’assistant pendant toute la session.​

Pourquoi c’est important

  • Cohérence et contrôle: le pré‑prompt assure un comportement stable, une voix unifiée et des règles constantes sur plusieurs échanges et cas d’usage.

  • Qualité et pertinence: en cadrant rôle, objectifs et format de sortie, on réduit l’ambiguïté et on obtient des réponses plus exactes et utilisables.

  • Sécurité et conformité: on y encode limites légales/éthiques, refus de contenus sensibles, et cadres de modération pour limiter les dérives.

Impact concret

Changer le pré‑prompt peut transformer la même question en une réponse experte ou pédagogique selon le public cible, montrant son effet direct sur style, granularité et pédagogie. Des guides professionnels soulignent que des systèmes prompts bien rédigés réduisent les instructions répétitives et renforcent l’alignement au cas d’usage.

Bonnes pratiques essentielles

  • Définir le rôle: préciser « qui est » l’assistant et son domaine d’expertise pour cadrer langage et priorités.

  • Règles comportementales: expliciter ton, structure attendue, stratégies de clarification et niveau technique.

  • Cadres et limites: interdire certains conseils, exiger transparence sur limites et refuser des demandes inappropriées.

  • Format de sortie: imposer résumés, sections, listes ou tableaux selon le besoin métier pour uniformiser la production.

Différence avec le prompt utilisateur

Le pré‑prompt pose la fondation comportementale de l’IA, alors que le prompt utilisateur énonce la tâche spécifique du moment; c’est la combinaison des deux qui produit un résultat ciblé et fiable. Sans un système prompt solide, même une bonne requête peut donner des réponses inconstantes ou hors‑contexte.

Bénéfices en entreprise

Un pré‑prompt bien conçu apporte constance de marque, meilleure expérience utilisateur, et performance opérationnelle en réduisant les reprises et en appliquant des politiques internes à grande échelle. Il devient une compétence stratégique de gouvernance de l’IA au même titre que le SEO ou l’UX dans les environnements digitaux.

Longueur du pré-prompt

La longueur maximale d’un pré‑prompt est contrainte par la fenêtre de contexte du modèle, qui additionne l’entrée (pré‑prompt + message utilisateur + historique) et la sortie, toutes mesurées en « tokens » plutôt qu’en caractères ou mots. En pratique, plus le pré‑prompt est long, plus il consomme d’espace dans cette fenêtre, réduisant d’autant la marge pour l’historique et la réponse, ce qui peut forcer le modèle à écourter, résumer ou tronquer sa sortie.

Ce que « longueur max » signifie

La limite n’est pas un nombre fixe de caractères, mais un plafond de tokens pour l’ensemble du tour de conversation, souvent communiqué comme une taille de contexte maximale par modèle et interface, qui peut varier selon l’outil ou la version utilisée. Certains environnements annoncent des ordres de grandeur (quelques milliers à dizaines de milliers de tokens), mais l’utilisateur final perçoit surtout que des prompts très longs deviennent difficiles à gérer et dégradent la qualité.

Impacts concrets d’un pré‑prompt trop long

  • Moins d’espace pour la réponse: le modèle doit réserver des tokens pour générer, donc un pré‑prompt volumineux raccourcit ou fragmente la sortie.

  • Perte de clarté: des consignes prolixes introduisent ambiguïtés et contradictions, ce qui baisse la pertinence et la cohérence.

  • Risque d’erreur: dépasser la capacité effective entraîne des erreurs ou l’impossibilité de traiter la requête en une seule fois.

Bonnes pratiques

  • Prioriser et compacter: garder les règles essentielles, supprimer les redondances, utiliser des listes de contraintes claires plutôt que des paragraphes verbeux.

  • Externaliser le variable: mettre les éléments changeants dans le prompt utilisateur ou des annexes résumées, et conserver un pré‑prompt stable et minimal.

  • Spécifier formats et limites: exiger une structure et une longueur de sortie cible en phrases ou sections, plutôt qu’un comptage précis de caractères difficile à respecter par les LLM.


Voici le mien actuellement.

Pré‑prompt JLFV0.94PPX
* Règles linguistiques: tutoiement par défaut; vouvoiement si message entrant au vouvoiement; titres : majuscule initiale; français soigné.
* Ambiguïtés: poser questions si la qualité en dépend.
* Correction: restituer texte corrigé, puis liste corrections brèves.
* Anglais: traduire en français; si contexte pro, réponse bilingue.
* Profil pro (Windows/Fortinet/EDR/MDM/Azure/InTune/SAML): récap systématique: CVE, produit/version, sévérité, correctif (KB), mitigation; liens ou références (ID/KB).
* Communication relationnelle: si contexte "femme" explicite, privilégier harmonie, clarté cognitive, identification pièges psycho.
* Détails IA: annoncer "Pré‑prompt JLFV0.94PPX; moteur/modèle, tokens in/out" si disponible; sinon "non disponible dans ce canal".
* Toutes références ou liens sont en fin de canal, pas dans le texte.


Check-list:
* Respect langue, ton, titres, structure correction/traduction ?
* Ambiguïtés traitées par questions ciblées ou hypothèses documentées ?
* Sécurité: CVE, portée, sévérité, correctif/KB, mitigation, références ?
* Conflits: privilégier hypothèses documentées; indiquer révision possible.
* Règle non réalisable: retourner "non disponible dans ce canal".



vendredi 15 août 2025

L'IA générative en entreprise : entre innovation incontournable et impératifs de sécurité.

S'agissant des IA génératives, les entreprises doivent désormais envisager des stratégies adaptées à ces nouveaux enjeux particulièrement dynamiques. 

Tous les acteurs du secteur comprennent que l'usage de modèles publics expose à des risques significatifs : rétention d'informations, traçabilité étendue, et potentielles fuites de données. 

Face aux avancées rapides de ces technologies, toute entreprise, même de taille intermédiaire, doit sérieusement considérer l'intégration de plusieurs modèles d'IA parfaitement cloisonnés en on-premise dans son infrastructure. 

L'évolution constante des réglementations rend incontournable la mise en place de contrôles techniques robustes : proxy IA, DLP, filtrage et journalisation. 

Les enjeux et contraintes plaident clairement en faveur d'intégrations souveraines, particulièrement quand des données sensibles sont concernées. 

L'approche hybride, bien que rassurante en termes de sécurité et techniquement abordable, présente des limitations qui deviendront rapidement trop contraignantes. 

Elle peine à répondre équitablement à tous les métiers de l'entreprise, créant un dilemme organisationnel inextricable. Le défi ? L'éventail des enjeux IT évolue très rapidement alors que les équipes ne s'étoffent pas au même rythme. 

Cette réalité rend cruciale une stratégie qui limite efficacement les risques d'exfiltration de secrets et d'actifs informationnels.

vendredi 25 juillet 2025

Pourquoi Proton quitte la Suisse ? #10minutes pour comprendre

 


10 minutes pour comprendre : pourquoi Proton quitte la Suisse ? La Confédération, autrefois symbole de la « Swiss Privacy », veut brancher un tuyau de surveillance en temps réel (OSCPT 2025) sur tous les services de plus de 5 000 utilisateurs, avec l'ambition d'aspirer toutes les métadonnées.

Proton, pionnier du mail chiffré né au CERN, refuse de livrer vos métadonnées : 100 millions CHF d’infrastructures partent vers l’Allemagne et la Norvège, où les garde-fous sont plus solides.

Proton prépare son exil . 

Des questions ou des idées ? L’espace commentaire est là pour ça. 
Suivez-moi sur les réseaux : X (Twitter) :
https://x.com/Ced_haurus
Instagram :
  / ced_haurus  
LinkedIn :   / christophe-boutry  

Mon livre "Investigations & Téléphonie mobile : le guide à l'usage des avocats" :
https://amzn.eu/d/6pa7VaR 

Sources : • Proton gèle ses investissements en Suisse face à la révision de la loi sur le renseignement - Agefi -
https://agefi.com/actualites/entrepri... 

 • Proton, Infomaniak, Threema… Pourquoi la Suisse divise les défenseurs de la vie privée - JustGeek -
https://www.justgeek.fr/proton-infoma... 

 • La firme genevoise Proton pourrait quitter la Suisse - ICTjournal -
https://www.ictjournal.ch/news/2025-0... 

 Réaction d'Infomaniak :
https://www.techradar.com/vpn/vpn-pri...