Ingénieur IA & Sécurité
CONTEXTE
Métiers Fonctions : ML ops, Ingénieur
Spécialités technologiques : Intelligence artificielle,AI,Monitoring,IA generative, Open Source
Cette mission s’inscrit dans le cadre d’un programme d’ingénierie et de sécurisation des systèmes d’intelligence artificielle générative et agentique.
L’objectif est de tester, évaluer et intégrer des garde-fous (“AI guardrails”) destinés à renforcer la fiabilité, la conformité et la sécurité des modèles de langage (LLMs) et des agents IA.
Le poste s’adresse à un profil confirmé (jusqu’à 6 ans d’expérience) en ingénierie IA, sécurité des modèles et MLOps, capable d’évoluer dans un environnement international et collaboratif, à la croisée de la technique, de la recherche et de la gouvernance IA.
MISSIONS
Responsabilités principales
1. Évaluation et tests de solutions de garde-fous IA
– Identifier et évaluer des solutions de sécurité pour modèles LLM et applications agentiques (open source et commerciales).
– Mettre en place un framework de test automatisé pour mesurer la performance, la latence et la robustesse des garde-fous.
– Concevoir et exécuter des scénarios d’attaques adversariaux (prompt injection, exfiltration de données, jailbreaks, contournement de filtres).
– Analyser les résultats des tests et produire des rapports d’évaluation détaillés : précision, compatibilité, facilité d’intégration.
– Assurer le monitoring des performances et de la gestion mémoire des modèles testés.
2. Intégration et industrialisation dans les environnements IA
– Concevoir des blueprints d’intégration pour incorporer les garde-fous dans les pipelines IA et stacks MLOps existants.
– Travailler à l’intégration de ces solutions dans les workflows LLM, RAG et agentiques, en s’appuyant sur les plateformes cloud (Azure, AWS, GCP).
– Collaborer avec les équipes de sécurité, de conformité et d’ingénierie pour définir des indicateurs de sécurité mesurables et des seuils de tolérance.
– Garantir la compatibilité des solutions avec les frameworks et technologies Asiatech AI.
– Contribuer à la documentation et à la mise en œuvre de pratiques d’IA responsable conformes aux standards européens (AI Act, NIST, ISO).
3. Partage de connaissances et support transverse
– Animer des ateliers internes et sessions de sensibilisation à la sécurité des modèles IA.
– Contribuer à la rédaction de livrables techniques et whitepapers sur la sécurisation des systèmes génératifs.
– Assurer un rôle de référent technique sur les pratiques de test et d’évaluation de la robustesse des LLMs.
– Favoriser la diffusion des bonnes pratiques au sein des équipes Data, ML et Sécurité.
Livrables attendus
– Framework de test des garde-fous IA : outils automatisés de simulation d’attaques et de mesure de robustesse.
– Rapports d’évaluation technique : performance, latence, complexité d’intégration, fiabilité.
– Plans d’intégration (blueprints) : architectures de référence et bonnes pratiques d’implémentation dans les workflows LLM/RAG.
Documents de partage de connaissances : ateliers, documentation interne et publications techniques
Expertise souhaitée
– Très bonne compréhension des architectures LLM (GPT, Claude, Mistral, etc.) et des frameworks d’orchestration d’agents.
– Solide expérience en sécurité des IA : garde-fous, filtrage de contenu, validation de prompts, détection d’exfiltration de données.
– Maîtrise des langages et outils : Python, Docker, CI/CD, monitoring, gestion de la mémoire, et services cloud IA (Azure, AWS, GCP).
– Expérience confirmée en tests adversariaux, évaluation de modèles et simulation d’attaques.
– Bonne compréhension des pratiques MLOps et des environnements d’industrialisation IA.
– Connaissance des cadres de gouvernance IA et des principes de Responsible AI (AI Act, NIST, ISO 42001).
-Rigueur scientifique et approche expérimentale des problématiques IA.
– Capacité à collaborer efficacement avec des équipes techniques, sécurité et conformité.
– Excellente communication écrite et orale, en anglais et en français.
– Autonomie, esprit analytique et goût pour l’innovation.
Profil recherché
– Ingénieur ou expert IA confirmé (jusqu’à 6 ans d’expérience), spécialisé en sécurité des modèles, MLOps ou IA générative.
– Expérience dans l’évaluation et le test de systèmes GenAI ou agentiques.
– Bonne compréhension des environnements cloud et de la gestion opérationnelle des pipelines IA.
– Capacité à intervenir sur des sujets mêlant R&D, sécurité, et gouvernance technologique.
Compétences
Technologies et Outils
Azure genai CI/CD Python GCP Docker AWS genai
Méthodes / Normes
ISO
Soft skills
Rigueur Autonomie
Langues
Français Anglais
Crée en 2008, Kéoni Consulting est une société de conseil et d’ingénierie informatique spécialisée dans le secteur de la banque, de la finance de marché, et de l’assurance, et de l’industrie. Nous sommes le partenaire dans la transformation digitale des grands Comptes. Nous les aidons à transformer leur modèle économique, aligner vos processus opérationnels, sélectionner les meilleures technologies, atténuer et palier les risques liés au digital.
Kéoni Consulting aide les entreprises à :
Faire la différence
Innover et créer
Réinventer votre business
Satisfaire les clients
Gagner en avantages compétitifs
Devenir le leader de leur secteur
Devenir le leader de votre secteur
Notre activité couvre la totalité du cycle de vie des systèmes d’informations (Pilotage et Gestion de projet, Conseil en MOA, Conception, Réalisation, Maintenance, Production Exploitation).