Machine learning | L'état de l'art Mixte : présentiel / à distance

Dernière mise à jour : 29/02/2024

Bannière visuelle de présentation de la formation

Présentation

Cette formation vous permettra de ma√ģtriser les bonnes pratiques du Machine Learning.

Informations éligibilité financement Actions Collectives

Formation pouvant être prise en charge à 100% dans le cadre des Actions Collectives.

 

Pour en bénéficier, contactez-nous à hello.institute@docaposte.fr et complétez votre inscription sur campusAtlas. 

https://www.docaposteinstitute.com/wp-content/uploads/2023/08/Eligible-actions-co-1.png

Objectifs

  • Comprendre les concepts d'apprentissage automatique et l'√©volution du big data vers l'apprentissage automatique
  • Comprendre les d√©fis de l'utilisation de l'apprentissage automatique, y compris les avantages attendus et les cas d'utilisation
  • Identifier la place du machine learning dans la cha√ģne de traitement des donn√©es
  • Conna√ģtre les principaux outils et acteurs du march√©
  • Passer en revue les algorithmes cl√©s et les approches de projet √† appliquer en fonction de votre cas d'utilisation m√©tier
  • Identifier les cl√©s du succ√®s des projets qui int√®grent le machine learning

Programme

Introduction et historique

  • Processus complet d'√©laboration d'un mod√®le pr√©dictif
  • Pr√©traitement des donn√©es (donn√©es manquantes, aberrantes, s√©lection de variables pertinentes‚Ķ)
  • Introduction √† l'apprentissage supervis√© et non supervis√©
  • Introduction √† la classification et la r√©gression
  • Le principe du partitionnement des donn√©es en donn√©es d'apprentissage et donn√©es de test
  • √Čvaluation de l'apprentissage, matrice de confusion et m√©trique

 

Arbres de décision

  • L'apprentissage par partitionnement
  • Construction d'un arbre de d√©cision sur un jeu de donn√©es synth√©tique
  • Principaux points √† consid√©rer lors de l'induction d'un arbre de d√©cision √† partir de donn√©es
  • CHAID, C4.5 et CART : Les trois principales m√©thodes d'induction d'arbres propos√©s dans les logiciels
  • Les diff√©rences et les points communs

 

Arbres de régression

  • La r√©gression par arbres
  • Une m√©thode non-lin√©aire de r√©gression
  • Rapprochement avec les arbres de d√©cision

 

Analyse discriminante prédictive

  • Un mod√®le param√©trique de discrimination
  • Analyse discriminante de Fisher
  • √Čvaluation globale du mod√®le
  • √Čvaluation individuelle des variables

 

Régression logistique

  • Le mod√®le LOGIT
  • Estimation, √©valuation globale et √©valuation individuelle des variables
  • R√©gression logistique polytomique
  • R√©gression logistique lorsque la variable d√©pendante Y prend plus de 2 valeurs
  • R√©gression logistique multinomiale lorsque Y est nominale
  • R√©gression logistique polytomique ordinale lorsque Y est ordinale (odds adjacents, odds cumulatifs proportionnels)

 

Classifieur bayesien na√Įf (mod√®le d'ind√©pendance conditionnelle)

  • Principe de l'ind√©pendance conditionnelle
  • Cas des pr√©dicteurs continus
  • Cas des pr√©dicteurs discrets
  • Construction d'un mod√®le explicite lin√©aire
  • S√©lection de variables

 

Bagging, random forest, boosting

  • M√©thodes ensemblistes bas√©es sur des apprentissages r√©p√©t√©s
  • Boosting : principe et variantes
  • Principe du Bagging
  • Random Forst : principe et variantes
  • Mesures d'importance des variables ‚Äď Impact sur le biais et la variance des classifieurs

 

Gradient boosting

  • G√©n√©ralisation du boosting avec l'introduction explicite de fonctions de co√Ľts
  • Importance du param√©trage

 

Support Vector Machine (SVM)

  • Principe de Machines √† vecteurs de support ou S√©parateur √† Vaste Marge
  • Principe de la maximisation de la marge
  • Marge souple (soft margin)
  • Classifieurs lin√©aires et classifieurs non-lin√©aires avec l'astuce du noyau (kernel trick)
  • Fonction Noyau

 

R√©seaux de neurones ‚Äď perceptron simple et multi-couches

  • Introduction aux r√©seaux de neurones artificiels pour l'apprentissage supervis√©
  • La Perceptron
  • Passage du mod√®le lin√©aire au mod√®le non-lin√©aire : le perceptron multicouches

 

Apprentissage non supervisé

  • Principe du clustering (K moyennes ou k means)
  • Principe de la Classification Ascendante Hi√©rarchique (CAH)
  • R√®gles d'association

 

Discrétisation des variables quantitatives

  • D√©coupage en classe d'une variable quantitative
  • M√©thodes non-supervis√©es et supervis√©es (chi-merge, mdlpc)

 

Filtrage des variables

  • Approche FILTRE pr√©alable √† l'apprentissage supervis√©
  • Techniques de classement (ranking)
  • Techniques de s√©lection bas√©es sur la corr√©lation
  • Information mutuelle, entropie de Shannon, rapport de corr√©lation, lambda de Wilks

 

Induction de règles prédictives

  • Construction de bases de r√®gles en analyse pr√©dictive
  • Conversion des arbres en r√®gles et algorithmes g√©n√©tiques pour l'induction de r√®gles

 

Scoring ‚Äď le ciblage marketing

  • Le ciblage client√®le
  • Construction et lecture de la courbe LIFT (GAIN CHART)

 

Analyse RFM (r√©cence ‚Äď fr√©quence ‚Äď montant)

  • Segmentation RFM (r√©cence-fr√©quence-montant)
  • Finalit√©, d√©marche, usage, variantes, limites

 

Grille de score

  • √Člaboration de la grille de score √† partir des r√©sultats de la r√©gression logistique
  • M√©thode Disqual et scoring

 

Int√©gration des co√Ľts de mauvais classement en apprentissage supervis√©

  • Prise en compte des co√Ľts pour l'√©valuation et la construction des mod√®les pr√©dictifs
  • Correction des r√®gles d'affectation, techniques int√©gr√©es, bagging, la m√©thode MetaCost
  • Courbe ROC
  • √Čvaluation d'un classifieur √† l'aide de la courbe ROC
  • Le crit√®re AUC

 

Quelques méthodes non-paramétriques de discrimination

  • Deux m√©thodes non-param√©triques de classement d√©riv√©s du sch√©ma Bayesien la m√©thode des K-plus proches voisins et le mod√®le d'ind√©pendance conditionnelle

 

Tirage rétrospectif et redressement des résultats échantillonnage non-représentatif

  • Modification du seuil d'affectation bas√© sur le score
  • Utilisation de la courbe ROC √† cet effet

 

Normalisation des scores

  • Rendre comparable des scores fournis par des m√©thodes diff√©rentes
  • Ramener dans l'intervalle [0 ; 1] et harmonisation des distributions
  • Diagramme de fiabilit√©

 

Méthodes de ré-échantillonnage pour l'évaluation des performances

  • Inad√©quation de l'√©valuation en re-substitution
  • Le sch√©ma apprentissage-test
  • Les techniques de r√©-√©chantillonnage : validation crois√©e, leave-one-out, bootstrap
  • Comparaison des performances des techniques supervis√©es
  • Diagramme de fiabilit√©

Public visé

  • Ing√©nieurs et techniciens ayant besoin de m√©thodes d'apprentissage pour automatiser des t√Ęches (pr√©diction, d√©cision, etc.) de mani√®re performante,
  • Chefs de projets qui souhaitent mieux identifier les t√Ęches que le machine learning permettrait d'automatiser,
  • Toute personne ayant d√©j√† √©t√© sensibilis√©e par le Data Mining et int√©ress√©e par les m√©thodes d'apprentissage

Modalités pédagogiques

Docaposte Institute propose plusieurs dispositifs pédagogiques adaptés aux apprenants :

 

  • Formation en pr√©sentiel
    • En groupe (inter-entreprises ou intra-entreprise)
    • En individuel (monitorat)
    • En journ√©e ou en cours du soir (sur demande sp√©cifique)
  • Formation en distanciel
    • Distanciel synchrone
    • Distanciel asynchrone

 

 

Prérequis

  • Avoir une culture informatique g√©n√©rale,
  • Poss√©der des notions de probabilit√©s et statistiques est recommand√©.¬†

Moyens et supports pédagogiques

  • ¬∑¬†¬†¬†¬†¬†¬† Apports¬†des connaissances communes.
  • ¬∑¬†¬†¬†¬†¬†¬† Mises en situation sur le th√®me de la formation¬†et des cas concrets.
  • ¬∑¬†¬†¬†¬†¬†¬† M√©thodologie d'apprentissage attractive, interactive et participative.
  • ¬∑¬†¬†¬†¬†¬†¬† Equilibre th√©orie / pratique : 60 % / 40 %.
  • ¬∑¬†¬†¬†¬†¬†¬† Supports de cours fournis au format papier et/ou num√©rique.
  • ¬∑¬†¬†¬†¬†¬†¬† Ressources documentaires en ligne et r√©f√©rences mises √† disposition par le formateur.
  • ¬∑¬†¬†¬†¬†¬†¬† Pour les formations en pr√©sentiel dans les locaux mis¬†√† disposition, les apprenants¬†sont accueillis dans une salle de cours √©quip√©e d'un r√©seau Wi-Fi, d'un tableau blanc ou paperboard. Un ordinateur avec les logiciels appropri√©s est mis √† disposition (le cas √©ch√©ant).
  • ¬†

Modalités d'évaluation et de suivi

En amont de la formation

·       Recueil des besoins des apprenants afin de disposer des informations essentielles au bon déroulé de la formation (profil, niveau, attentes particulières...).

·       Auto-positionnement des apprenants afin de mesurer le niveau de départ.

Tout au long de la formation

¬∑¬†¬†¬†¬†¬†¬† √Čvaluation continue des acquis avec¬†des questions orales, des exercices, des QCM, des cas pratiques ou mises en situation...

A la fin de la formation

·       Auto-positionnement des apprenants afin de mesurer l'acquisition des compétences.

·       Evaluation par le formateur des compétences acquises par les apprenants.

·       Questionnaire de satisfaction à chaud afin de recueillir la satisfaction des apprenants à l'issue de la formation.

·       Questionnaire de satisfaction à froid afin d'évaluer les apports ancrés de la formation et leurs mises en application au quotidien.

Accessibilité

Nos formations peuvent être adaptées à certaines conditions de handicap. Nous contacter pour toute information et demande spécifique.

M'inscrire à la formation

Valider la pré-inscription
Inscription possible jusqu'à 10 jours avant démarrage formation

Prochaines Sessions

  • D√©sol√©, cette formation n'est pas programm√©e pour le moment.

    Si vous êtes responsable formation, vous pouvez faire une requête pour l'organiser en INTRA dans votre entreprise.

Dans la même catégorie

Catalogue de formation propulsé par Dendreo,
Plateforme dédiée pour les OF