Affichage des articles dont le libellé est IA. Afficher tous les articles
Affichage des articles dont le libellé est IA. Afficher tous les articles

samedi 29 novembre 2025

Les 4 étapes pour entrainer un LLM

Qu'est-ce qu'a bien pu faire la start-up chinoise DeepSeek pour secouer le monde de la tech ?

Pour le comprendre, on se demande comment passer d'un simple compléteur de texte, à un assistant IA capable de raisonner ! 

 


Détails et compléments dans le billet de blog qui accompagne la vidéo : 
https://scienceetonnante.com/blog/202...
00:00 

Introduction 01:37 
Le prétraining auto-supervisé
13:30 
Le fine-tuning supervisé
19:07 
Le fine-tuning par les préférences
26:40 
Le fine-tuning par le raisonnement
32:30 
Les innovations de DeepSeek
37:35 
L'avenir de l'IA 

Le serveur Discord de Science étonnante ➡️
  / discord   Écrit et réalisé par David Louapre © Science étonnante 

Abonnez-vous :
   / scienceetonnante   
Me soutenir sur Tipeee :
http://www.tipeee.com/science-etonnante ou 
Patreon :
  / scienceetonnante   
Mes livres :
https://scienceetonnante.com/livres/ 
Facebook :
  / sciencetonnante   Twitter :   / dlouapre  

dimanche 12 octobre 2025

IA : Le pré-prompt plus important que le prompt.

 

 


 

Le pré‑prompt IA est crucial car il fixe dès le départ les règles, le rôle, le ton et les limites de l’assistant, ce qui améliore fortement la pertinence, la cohérence et la sûreté des réponses sur toute la conversation. En pratique, il encadre le comportement pour appliquer des normes éthiques et métiers, réduire les allers‑retours, et aligner la sortie sur un contexte ou une marque donnés.

Définition

Un pré‑prompt est une consigne injectée automatiquement avant le message de l’utilisateur pour définir contexte, style, contraintes et priorités de l’IA, de manière invisible pour l’interlocuteur final. C’est l’« instruction système » qui oriente la structure, la prudence et les biais acceptables de l’assistant pendant toute la session.​

Pourquoi c’est important

  • Cohérence et contrôle: le pré‑prompt assure un comportement stable, une voix unifiée et des règles constantes sur plusieurs échanges et cas d’usage.

  • Qualité et pertinence: en cadrant rôle, objectifs et format de sortie, on réduit l’ambiguïté et on obtient des réponses plus exactes et utilisables.

  • Sécurité et conformité: on y encode limites légales/éthiques, refus de contenus sensibles, et cadres de modération pour limiter les dérives.

Impact concret

Changer le pré‑prompt peut transformer la même question en une réponse experte ou pédagogique selon le public cible, montrant son effet direct sur style, granularité et pédagogie. Des guides professionnels soulignent que des systèmes prompts bien rédigés réduisent les instructions répétitives et renforcent l’alignement au cas d’usage.

Bonnes pratiques essentielles

  • Définir le rôle: préciser « qui est » l’assistant et son domaine d’expertise pour cadrer langage et priorités.

  • Règles comportementales: expliciter ton, structure attendue, stratégies de clarification et niveau technique.

  • Cadres et limites: interdire certains conseils, exiger transparence sur limites et refuser des demandes inappropriées.

  • Format de sortie: imposer résumés, sections, listes ou tableaux selon le besoin métier pour uniformiser la production.

Différence avec le prompt utilisateur

Le pré‑prompt pose la fondation comportementale de l’IA, alors que le prompt utilisateur énonce la tâche spécifique du moment; c’est la combinaison des deux qui produit un résultat ciblé et fiable. Sans un système prompt solide, même une bonne requête peut donner des réponses inconstantes ou hors‑contexte.

Bénéfices en entreprise

Un pré‑prompt bien conçu apporte constance de marque, meilleure expérience utilisateur, et performance opérationnelle en réduisant les reprises et en appliquant des politiques internes à grande échelle. Il devient une compétence stratégique de gouvernance de l’IA au même titre que le SEO ou l’UX dans les environnements digitaux.

Longueur du pré-prompt

La longueur maximale d’un pré‑prompt est contrainte par la fenêtre de contexte du modèle, qui additionne l’entrée (pré‑prompt + message utilisateur + historique) et la sortie, toutes mesurées en « tokens » plutôt qu’en caractères ou mots. En pratique, plus le pré‑prompt est long, plus il consomme d’espace dans cette fenêtre, réduisant d’autant la marge pour l’historique et la réponse, ce qui peut forcer le modèle à écourter, résumer ou tronquer sa sortie.

Ce que « longueur max » signifie

La limite n’est pas un nombre fixe de caractères, mais un plafond de tokens pour l’ensemble du tour de conversation, souvent communiqué comme une taille de contexte maximale par modèle et interface, qui peut varier selon l’outil ou la version utilisée. Certains environnements annoncent des ordres de grandeur (quelques milliers à dizaines de milliers de tokens), mais l’utilisateur final perçoit surtout que des prompts très longs deviennent difficiles à gérer et dégradent la qualité.

Impacts concrets d’un pré‑prompt trop long

  • Moins d’espace pour la réponse: le modèle doit réserver des tokens pour générer, donc un pré‑prompt volumineux raccourcit ou fragmente la sortie.

  • Perte de clarté: des consignes prolixes introduisent ambiguïtés et contradictions, ce qui baisse la pertinence et la cohérence.

  • Risque d’erreur: dépasser la capacité effective entraîne des erreurs ou l’impossibilité de traiter la requête en une seule fois.

Bonnes pratiques

  • Prioriser et compacter: garder les règles essentielles, supprimer les redondances, utiliser des listes de contraintes claires plutôt que des paragraphes verbeux.

  • Externaliser le variable: mettre les éléments changeants dans le prompt utilisateur ou des annexes résumées, et conserver un pré‑prompt stable et minimal.

  • Spécifier formats et limites: exiger une structure et une longueur de sortie cible en phrases ou sections, plutôt qu’un comptage précis de caractères difficile à respecter par les LLM.


Voici le mien actuellement.

Pré‑prompt JLFV0.94PPX
* Règles linguistiques: tutoiement par défaut; vouvoiement si message entrant au vouvoiement; titres : majuscule initiale; français soigné.
* Ambiguïtés: poser questions si la qualité en dépend.
* Correction: restituer texte corrigé, puis liste corrections brèves.
* Anglais: traduire en français; si contexte pro, réponse bilingue.
* Profil pro (Windows/Fortinet/EDR/MDM/Azure/InTune/SAML): récap systématique: CVE, produit/version, sévérité, correctif (KB), mitigation; liens ou références (ID/KB).
* Communication relationnelle: si contexte "femme" explicite, privilégier harmonie, clarté cognitive, identification pièges psycho.
* Détails IA: annoncer "Pré‑prompt JLFV0.94PPX; moteur/modèle, tokens in/out" si disponible; sinon "non disponible dans ce canal".
* Toutes références ou liens sont en fin de canal, pas dans le texte.


Check-list:
* Respect langue, ton, titres, structure correction/traduction ?
* Ambiguïtés traitées par questions ciblées ou hypothèses documentées ?
* Sécurité: CVE, portée, sévérité, correctif/KB, mitigation, références ?
* Conflits: privilégier hypothèses documentées; indiquer révision possible.
* Règle non réalisable: retourner "non disponible dans ce canal".



samedi 7 juin 2025

Puissance évocatrice des IA.

 Fais-moi une illustration avec 4 chats minces, regard vif.
Les pupilles des chats seront fines. Un des chats sera un chaton. Il me faut plusieurs races de chats dont un Ragdoll.
Devant un environnement urbain parisien au printemps contemporain qui ressemble au réel, bien ensoleillé.
En haut à gauche, je veux un panneau "Interdit aux chiens".
Le chat au premier plan aura devant lui une affiche sur laquelle il sera écrit :
"Les chiens collaborent avec la police. Nous, jamais !"
Une patte de chat en bas à droite de l'affiche, un liseré BLEU BLANC ROUGE sur l'affiche.
Je veux un aspect photo brillant, pas de CRS.