Coursera

Secure AI Code & Libraries with Static Analysis

Ce cours n'est pas disponible en Français (France)

Nous sommes actuellement en train de le traduire dans plus de langues.
Coursera

Secure AI Code & Libraries with Static Analysis

Aseem Singhal
Starweaver

Instructeurs : Aseem Singhal

Inclus avec Coursera Plus

Obtenez un aperçu d'un sujet et apprenez les principes fondamentaux.
niveau Intermédiaire

Expérience recommandée

4 heures à compléter
Planning flexible
Apprenez Ă  votre propre rythme
Obtenez un aperçu d'un sujet et apprenez les principes fondamentaux.
niveau Intermédiaire

Expérience recommandée

4 heures à compléter
Planning flexible
Apprenez Ă  votre propre rythme

Ce que vous apprendrez

  • Configure Bandit, Semgrep, PyLint to detect AI vulnerabilities: insecure model deserialization, hardcoded secrets, unsafe system calls in ML code.

  • Apply static analysis to fix AI vulnerabilities (pickle exploits, input validation, dependencies); create custom rules for AI security patterns.

  • Implement pip-audit, Safety, Snyk for dependency scanning; assess AI libraries for vulnerabilities, license compliance, and supply chain security.

Compétences que vous acquerrez

  • CatĂ©gorie : Threat Modeling
  • CatĂ©gorie : Application Security
  • CatĂ©gorie : Continuous Integration
  • CatĂ©gorie : Vulnerability Scanning
  • CatĂ©gorie : Open Web Application Security Project (OWASP)
  • CatĂ©gorie : Responsible AI
  • CatĂ©gorie : Dependency Analysis
  • CatĂ©gorie : Program Implementation
  • CatĂ©gorie : AI Security
  • CatĂ©gorie : Code Review
  • CatĂ©gorie : AI Personalization
  • CatĂ©gorie : Analysis
  • CatĂ©gorie : PyTorch (Machine Learning Library)
  • CatĂ©gorie : Supply Chain
  • CatĂ©gorie : Secure Coding
  • CatĂ©gorie : DevSecOps
  • CatĂ©gorie : MLOps (Machine Learning Operations)
  • Section CompĂ©tences masquĂ©e. Affichage de 8 compĂ©tence(s) sur 17.

Détails à connaître

Certificat partageable

Ajouter Ă  votre profil LinkedIn

Récemment mis à jour !

décembre 2025

Enseigné en Anglais

Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

 logos de Petrobras, TATA, Danone, Capgemini, P&G et L'Oreal

Élaborez votre expertise du sujet

Ce cours fait partie de la Spécialisation "AI Security: Security in the Age of Artificial Intelligence"
Lorsque vous vous inscrivez à ce cours, vous êtes également inscrit(e) à cette Spécialisation.
  • Apprenez de nouveaux concepts auprès d'experts du secteur
  • AcquĂ©rez une comprĂ©hension de base d'un sujet ou d'un outil
  • DĂ©veloppez des compĂ©tences professionnelles avec des projets pratiques
  • Obtenez un certificat professionnel partageable

Il y a 3 modules dans ce cours

This module establishes the foundation for secure AI development by teaching learners why traditional security approaches fall short for machine learning systems and how static analysis tools provide proactive vulnerability detection. Students will master the essential skills of configuring and integrating industry-standard security tools like Bandit, Semgrep, and PyLint into their AI development workflows, while understanding the unique threat landscape that AI/ML systems face in production environments.

Inclus

4 vidéos2 lectures1 évaluation par les pairs

This module focuses on practical application of static analysis techniques to detect real security weaknesses commonly found in AI codebases. Students will learn to identify and remediate critical vulnerabilities including insecure model deserialization, hardcoded credentials in training scripts, and unsafe data pipeline operations, while developing custom detection rules tailored to AI-specific security patterns that generic tools often miss.

Inclus

3 vidéos1 lecture1 évaluation par les pairs

This module extends security analysis beyond first-party code to address the complex supply chain risks inherent in AI development's heavy reliance on external libraries. Students will master automated dependency scanning workflows using tools like pip-audit and Snyk to identify vulnerabilities in AI libraries, ensure license compliance across diverse open-source packages, and implement comprehensive supply chain security policies with Software Bill of Materials (SBOM) generation for production ML systems.

Inclus

4 vidéos1 lecture1 devoir2 évaluations par les pairs

Obtenez un certificat professionnel

Ajoutez ce titre à votre profil LinkedIn, à votre curriculum vitae ou à votre CV. Partagez-le sur les médias sociaux et dans votre évaluation des performances.

Instructeurs

Aseem Singhal
Coursera
12 Cours 6 165 apprenants

Offert par

Coursera

En savoir plus sur Security

Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?

Felipe M.

Étudiant(e) depuis 2018
’Pouvoir suivre des cours à mon rythme à été une expérience extraordinaire. Je peux apprendre chaque fois que mon emploi du temps me le permet et en fonction de mon humeur.’

Jennifer J.

Étudiant(e) depuis 2020
’J'ai directement appliqué les concepts et les compétences que j'ai appris de mes cours à un nouveau projet passionnant au travail.’

Larry W.

Étudiant(e) depuis 2021
’Lorsque j'ai besoin de cours sur des sujets que mon université ne propose pas, Coursera est l'un des meilleurs endroits où se rendre.’

Chaitanya A.

’Apprendre, ce n'est pas seulement s'améliorer dans son travail : c'est bien plus que cela. Coursera me permet d'apprendre sans limites.’
Coursera Plus

Ouvrez de nouvelles portes avec Coursera Plus

Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.

Faites progresser votre carrière avec un diplôme en ligne

Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne

Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires

Améliorez les compétences de vos employés pour exceller dans l’économie numérique

Foire Aux Questions

¹ Certains travaux de ce cours sont notés par l'IA. Pour ces travaux, vos Données internes seront utilisées conformément à Notification de confidentialité de Coursera.