Nouveau

L'IA au service du bien commun

+4300
Étudiants inscrits

Comprendre les implications concrètes de l'IA et remettre la technologie au service des transitions

L’intelligence artificielle bouleverse nos sociétés à une vitesse vertigineuse. Présentée comme une promesse d’efficacité et d’innovation, elle transforme profondément nos façons de travailler, de communiquer, de produire et même de gouverner. Mais de quoi parle-t-on vraiment ? Comment ces systèmes fonctionnent-ils ? Qui les conçoit, les finance, les contrôle ? Et à quelles conditions peuvent-ils réellement servir l’intérêt général ?

Leçons du Grand Cours
20
épisodes

  • 1

    Démystifier l’IA

    30 min

    Dans ce premier épisode, nous posons les bases d’une exploration critique, engagée et accessible de l’intelligence artificielle. À l’heure où l’IA est omniprésente dans les médias, les discours politiques, les usages du quotidien et les stratégies industrielles, ce cours propose d’en déconstruire les mythes, d’en comprendre les fondements techniques et historiques, et surtout d’en examiner les impacts sociaux, économiques, politiques et environnementaux. Ce premier chapitre nous invite à dépasser les discours simplistes pour mieux comprendre les enjeux profonds que soulève cette révolution technologique. C’est le point de départ d’un voyage critique et stimulant au cœur de l’IA.


    Acquis : 

    • Comprendre ce qu’est (et n’est pas) l’intelligence artificielle, en identifiant notamment les grandes familles d’algorithmes et leurs usages 
    • Replacer l’IA dans son histoire, en retraçant ses cycles d’espoir et de désillusion, et en identifiant les ruptures technologiques qui ont permis son essor actuel
    • Développer un regard critique sur l’IA, en prenant conscience des mythes qui l’entourent et des enjeux sociaux, politiques et environnementaux qu’elle soulève
  • 2

    Anatomie d’un système d’IA : fonctionnem...

    38 min

    Dans ce deuxième épisode, nous entrons dans les coulisses du fonctionnement des systèmes d’intelligence artificielle. Grâce à des exemples visuels et concrets, nous découvrons comment un algorithme apprend à partir de données, prend des décisions et se perfectionne. Pas besoin de savoir coder : nous allons ensemble comprendre les grandes étapes de l’apprentissage automatique, des arbres de décision aux réseaux de neurones, jusqu’aux grands modèles comme ChatGPT. Une plongée accessible au cœur des systèmes d’IA pour mieux en saisir les logiques internes.


    Acquis : 

    • Comprendre les étapes clés du machine learning supervisé, de la collecte des données à l’inférence, en passant par l’entraînement, la performance et le risque de sur-apprentissage
    • Identifier les principaux types d’algorithmes d’IA (arbres de décision, forêts aléatoires, régression, réseaux de neurones) et leurs forces, limites et domaines d’application
    • Découvrir le fonctionnement des grands modèles de langage comme ChatGPT, de leur entraînement massif à leur ajustement par retour humain, et prendre conscience des implications techniques et énergétiques associées
  • 3

    Anatomie d’un système d’IA : limites

    33 min

    Après avoir posé les bases techniques et historiques de l’intelligence artificielle, nous en explorons désormais les revers : ses limites techniques, ses biais sociaux, ses dépendances matérielles, mais aussi ses impacts écologiques, cognitifs, politiques et économiques. Loin des discours techno-optimistes, l’objectif est de révéler ce que les interfaces fluides masquent : les fragilités structurelles des systèmes d’IA, les rapports de pouvoir qu’ils cristallisent et les choix politiques qu’ils engagent.


    Acquis : 

    • Identifier les limites techniques et cognitives de l’IA, notamment son incapacité à comprendre la complexité du monde, sa tendance à halluciner des réponses, et les risques de désinformation et d’érosion du lien à la réalité
    • Comprendre les dépendances humaines, matérielles et écologiques des systèmes d’IA, en prenant conscience du travail invisible, des infrastructures énergivores et des impacts environnementaux associés à leur fonctionnement
    • Décrypter les rapports de pouvoir et les biais systémiques liés à l’IA, en analysant la concentration des ressources, l’opacité des modèles, et la fausse neutralité technologique qui masque des choix idéologiques et politiques
  • 4

    La chaîne de valeur de l’IA

    39 min

    Dans ce quatrième épisode, nous soulevons une question politique fondamentale : qui détient réellement le pouvoir dans le développement de l’intelligence artificielle ? En déconstruisant les discours de neutralité et les fantasmes de machines autonomes, nous recentrons l’attention sur les êtres humains, les groupes sociaux et les structures économiques qui façonnent l’IA. Ce chapitre met en lumière les rapports de force, les inégalités structurelles et les dépendances systémiques qui entourent la conception, la décision et la gouvernance des technologies d’IA.


    Acquis : 

    • Comprendre que l’IA est une construction sociale et politique, façonnée par des humains, des intérêts économiques, des rapports de pouvoir et des choix de société
    • Identifier les déséquilibres structurels de la chaîne de valeur de l’IA, notamment la concentration du pouvoir technologique, le manque de diversité dans les équipes et l’opacité des processus
    • Reconnaître les enjeux d’une gouvernance démocratique de l’IA, en explorant les leviers pour impliquer les citoyens, soutenir des alternatives éthiques et redonner une place aux institutions publiques dans les décisions technologiques
  • 5

    Dystopie

    20 min

    Dans cet épisode, nous changeons de registre et proposons une fiction dystopique pour explorer les implications concrètes d’un monde gouverné par des systèmes d’intelligence artificielle généralisée. Loin d’un exercice de style, ce récit fonctionne comme une mise en garde contre une technocratie algorithmique déconnectée du réel, où la quête d’efficience et de performance vient écraser les savoirs locaux, les équilibres écologiques et les droits fondamentaux.

    À travers le personnage de Thomas Delacroix, jeune ingénieur brillant embarqué dans le projet de sauvegarde de la Grande Barrière de corail via une IA nommée Omniscience, le récit dévoile une critique acérée des logiques de gouvernance algorithmique : opacité, déshumanisation, extractivisme, instrumentalisation de la nature et des populations.


    Acquis : 

    • Identifier les dérives possibles d’une gouvernance technologique fondée sur l’optimisation, notamment la déshumanisation, la dépossession du vivant et la logique extractiviste masquée par des indicateurs positifs
    • Comprendre les limites des systèmes d’IA face à la complexité du réel, en particulier l’incapacité à intégrer les savoirs locaux, les cycles naturels et les logiques culturelles
    • Développer un regard critique sur les choix politiques et économiques qui sous-tendent l’IA, en interrogeant qui décide, pour quels objectifs, et avec quelles conséquences invisibles sur les sociétés et les écosystèmes
  • 6

    Les impacts de l’IA : vue d’ensemble

    19 min

    Dans cet épisode, nous proposons une cartographie des impacts et des risques liés à l’intelligence artificielle. L’objectif est d’offrir une vision structurée et méthodique qui permette de dépasser le simple battage médiatique et d’identifier avec rigueur les domaines où l’IA produit déjà — ou pourrait produire — des effets majeurs, qu’ils soient bénéfiques ou dommageables. Pour ce faire, nous nous appuyons sur des études scientifiques, des bases de données d’incidents réels et plusieurs grilles d’analyse. Nous introduisons notamment la taxonomie causale des risques, les grandes catégories d’impacts et les critères permettant d’en évaluer la sévérité et l’incidence.


    Acquis : 

    • Identifier les principales catégories d’impacts et de risques de l’IA
    • Comprendre la taxonomie causale des incidents liés à l’IA, en distinguant qui est responsable, à quel moment du cycle de vie cela se produit et si c’est intentionnel ou non
    • Analyser les dynamiques d’escalade et de systématisation des incidents, en prenant conscience que ces phénomènes sont structurels et nécessitent une vigilance collective, une régulation et une réflexion éthique renforcées
  • 7

    Faux et démocratie

    31 min

    Dans cet épisode, nous explorons les impacts de la génération de contenus faux par l’intelligence artificielle, depuis les deepfakes spectaculaires jusqu’aux phénomènes plus diffus de pollution informationnelle et de manipulation de l’opinion publique. Cet épisode dresse un panorama précis des usages, des risques et des transformations profondes qu’impliquent ces technologies.


    Acquis : 

    • Identifier les différents usages des contenus générés par IA et leurs impacts, depuis la création artistique jusqu’aux diverses formes de manipulation, d’atteinte à la vie privée et de pollution informationnelle
    • Comprendre le rôle central des algorithmes de recommandation dans la déstabilisation démocratique, en amplifiant la viralité des contenus toxiques et en renforçant la polarisation politique
    • Reconnaître les enjeux juridiques, éthiques et psychologiques liés à la banalisation du faux, qu’il s’agisse de droits d’auteur, de dépendance affective ou de dégradation de la confiance dans l’espace public
  • 8

    Biais et discriminations

    27 min

    Nous explorons dans cet épisode la question centrale des biais et discriminations induits ou amplifiés par l’intelligence artificielle. Nous démontrons comment les systèmes d’IA reproduisent, renforcent et parfois aggravent des inégalités sociales, culturelles et économiques, en s’appuyant sur une multitude d’exemples concrets, d’études et de cas réels. Ce phénomène dépasse le simple dysfonctionnement technique : il révèle les limites des algorithmes et la nécessité d’un questionnement éthique et politique profond sur leur place dans nos sociétés.


    Acquis : 

    • Reconnaître les différentes sources de biais dans l’IA
    • Comprendre comment les biais algorithmiques peuvent générer des discriminations systémiques
    • Identifier les leviers pour limiter ces biais et construire une justice algorithmique
  • 9

    Travail et compétences

    29 min

    Dans cet épisode, nous mettons en lumière l’impact profond et multiforme de l’intelligence artificielle sur le travail humain, les compétences et l’organisation des marchés de l’emploi. Au-delà des discours anxiogènes sur un hypothétique chômage de masse, cet épisode propose une analyse nuancée et documentée des évolutions en cours : automatisation partielle, création de nouvelles tâches, transformation des métiers, mais aussi redéfinition de la productivité, de la dignité professionnelle et des équilibres socio-économiques.


    Acquis : 

    • Comprendre les quatre formes principales de transformation des tâches liées à l’IA
    • Identifier les risques sociaux et psychologiques associés à l’automatisation
    • Reconnaître les leviers collectifs et réglementaires pour encadrer ces transformations
  • 10

    Éducation et délégation cognitive

    23 min

    Quels sont les impacts de l’intelligence artificielle générative sur l’éducation et, plus largement, sur notre manière d’apprendre et de penser ? Alors que l’IA se généralise dans les écoles et universités, elle suscite à la fois espoirs et inquiétudes : promesse d’un apprentissage personnalisé et inclusif d’un côté, menace d’une perte de sens, d’une délégation excessive de nos capacités cognitives et d’une transformation du rôle des enseignants de l’autre. Cet épisode questionne en profondeur ces enjeux, propose des exemples concrets et met en lumière les premiers résultats d’études sur l’évolution de la pensée critique.


    Acquis : 

    • Identifier les opportunités offertes par l’IA éducative, comme le tutorat personnalisé, la création de contenus adaptés et l’inclusion des élèves en difficulté
    • Comprendre les risques liés à la délégation cognitive, notamment la perte de pensée critique, la dépendance aux outils et la banalisation de la triche assistée
    • Analyser les enjeux éthiques, sociaux et politiques du déploiement massif de l’IA dans l’éducation, notamment la surveillance, la précarisation du métier d’enseignant et la captation des systèmes éducatifs par les grandes entreprises technologiques
  • 11

    Impacts environnementaux directs

    30 min

    L’IA est souvent perçue comme immatérielle, presque magique : quelques requêtes dans le cloud et des réponses instantanées. Pourtant, derrière cette apparence, se cache une chaîne de valeur matérielle, énergivore et polluante : infrastructures, datacenters, équipements, consommation d’eau et extraction de ressources. Dans cet épisode, nous mettons en lumière ces réalités souvent négligées et leurs conséquences sur l’environnement.


    Acquis : 

    • Comprendre les principaux postes d’impact environnemental de l’IA
    • Identifier les leviers techniques d’optimisation énergétique et leurs limites
    • Analyser les enjeux de transparence, de localisation et de dépendance aux ressources rares
  • 12

    Impacts environnementaux indirects

    22 min

    Dans cet épisode, nous partons à la découverte des impacts environnementaux indirects de l’intelligence artificielle, souvent invisibles mais profonds. Nous allons comprendre comment l’IA alimente une spirale de consommation énergétique, renforce la dépendance aux énergies fossiles et aggrave les inégalités sociales et écologiques. Nous analyserons les effets rebonds, les tensions locales autour des datacenters, les arbitrages énergétiques contestés et l’influence de l’IA sur la dynamique globale de la crise environnementale. Ce panorama nous aidera à interroger collectivement les priorités et la trajectoire actuelle de ces technologies.


    Acquis : 

    • Comprendre les effets rebonds provoqués par l’optimisation technique de l’IA et leur rôle dans l’accroissement global de la consommation énergétique
    • Identifier les tensions locales et globales liées à l’implantation des datacenters et à la compétition pour les ressources électriques, l’eau et les sols
    • Analyser comment l’IA agit comme accélérateur systémique des industries polluantes et contribue à une crise environnementale et sociale globale
  • 13

    Sécurité de l’IA et Intelligence Artific...

    Cet épisode aborde un thème fascinant et controversé : la possibilité d’une intelligence artificielle générale (AGI) dépassant les capacités humaines, et les risques existentiels qu’elle pourrait représenter. Nous nous appuyons sur des exemples marquants, comme la performance historique d’AlphaGo, pour montrer à quel point les progrès de l’IA peuvent générer des comportements inattendus et “surhumains”. Ces avancées amènent la question cruciale de l’alignement entre les objectifs assignés à l’IA et les intentions humaines. Cet épisode décrit les risques potentiels associés à ces systèmes, les moyens techniques et politiques de les encadrer, et les débats qu’ils suscitent.


    Acquis : 

    • Comprendre ce qu’est l’intelligence artificielle générale (AGI) et pourquoi elle pourrait émerger plus vite que prévu
    • Identifier le problème fondamental de l’alignement des objectifs
    • Découvrir les méthodes et les débats autour de la sûreté de l’IA, en distinguant les approches techniques et les leviers politiques pour limiter les risques immédiats et futurs
  • 14

    Éthique et idéologie

    28 min

    Alors que les précédents épisodes traitent des impacts concrets et des risques techniques de l’IA, cet épisode marque un tournant : il invite à interroger les visions du monde, les récits et les intérêts qui orientent l’évolution de cette technologie. Loin d’être neutre ou purement technique, l’IA apparaît ici comme un projet profondément idéologique, porteur d’une certaine conception de l’humanité, du progrès et du futur. À travers l’analyse de plusieurs courants idéologiques, nous mettons en lumière l’infrastructure mentale et politique de la Silicon Valley, et plus largement, des acteurs dominants du secteur.


    Acquis : 

    • Identifier les principales idéologies qui influencent le développement de l’IA (transhumanisme, techno-libertarianisme, singularitarianisme, etc.)
    • Analyser l’infrastructure historique et politique de l’IA, en comprenant ses liens avec des courants anciens comme l’eugénisme ou le capitalisme de surveillance
    • Déconstruire les récits techno-idéologiques dominants et envisager la nécessité de contre-narratifs démocratiques pour orienter le futur de l’IA vers le bien commun
  • 15

    Géopolitique et économie de l’IA

    27 min

    Dans ce chapitre, nous explorons les dynamiques de pouvoir à l’œuvre dans le développement de l’intelligence artificielle à l’échelle mondiale. En nous appuyant sur une approche géopolitique, nous montrons que l’IA n’est pas une simple technologie neutre, mais un levier stratégique mobilisé par les États et les grandes entreprises pour affirmer leur domination économique, politique, technologique et militaire. Nous verrons en quoi cette “technopolitique” de l’IA, à la fois conflictuelle et structurante, redessine les relations internationales, révèle les dépendances systémiques et alimente des trajectoires divergentes d’innovation, de souveraineté et de sécurité.


    Acquis : 

    • Comprendre les dynamiques géopolitiques liées à l’IA, en identifiant les rivalités structurantes et les modèles techno-politiques divergents
    • Analyser les chaînes de dépendance technologique, en reconnaissant les nœuds critiques (semi-conducteurs, cloud, data) et les stratégies proposées pour renforcer la souveraineté numérique
    • Identifier les enjeux de la militarisation de l’IA, notamment le développement d’armes autonomes, les risques éthiques associés et la dilution de la responsabilité humaine dans les conflits armés
  • 16

    Régulation de l’IA

    26 min

    Dans ce chapitre, nous revenons sur les moyens de reprendre collectivement la main sur l’intelligence artificielle. Après avoir analysé ses promesses, ses fonctionnements, ses limites, ses implications géopolitiques et ses soubassements idéologiques, il s’agit désormais de s’interroger : comment encadrer une technologie aussi puissante et transformatrice ? Quels modèles de gouvernance adopter pour que l’IA serve effectivement l’intérêt général ? Nous explorons les pistes de régulation existantes, leurs limites, et proposons une vision transversale d’une IA démocratique, transparente et pluraliste.


    Acquis : 

    • Comprendre les limites des approches éthiques non contraignantes et l’importance d’une régulation effective
    • Identifier les conditions nécessaires à une gouvernance démocratique de l’IA : institutions indépendantes, participation citoyenne, pluralisme technologique
    • Analyser les enjeux de souveraineté et les risques d’une gouvernance déléguée aux grandes entreprises privées ou à des élites technocratiques
  • 17

    Épisode 17 – Impacts positifs de l'IA

    42 min

    Après avoir exploré les fondements, les limites et les dérives potentielles de l’intelligence artificielle, ce chapitre marque un tournant dans le cours de Théo Alves Da Costa : il s’agit désormais d’interroger la possibilité d’utiliser l’IA au service du bien commun. Est-il vraiment possible de concevoir et de déployer des technologies qui aient un impact social ou environnemental positif ? À quelles conditions ? Et comment éviter les écueils du “IA-for-good washing” ? Ce chapitre propose une réflexion méthodologique appuyée sur des exemples concrets issus du terrain, pour penser les conditions de pertinence, de légitimité et d’impact réel des projets d’IA à visée d’intérêt général.


    Acquis : 

    • Identifier les critères essentiels qui permettent de distinguer un véritable projet d’IA au service du bien commun d’un projet d’ “IA-for-good washing”
    • Comprendre l’importance de la co-construction avec les parties prenantes et l’intégration d’indicateurs d’impact dès la conception d’un projet d’IA
    • Découvrir des exemples concrets d’applications de l’IA à impact social ou environnemental, et les conditions qui ont permis leur efficacité
  • 18

    Techno-lucidité

    26 min

    Face aux bouleversements provoqués par l’intelligence artificielle, deux attitudes opposées prédominent : d’un côté, un rejet viscéral de la technologie (technophobie) ; de l’autre, un enthousiasme naïf qui croit qu’elle résoudra tous nos problèmes (solutionnisme technologique). Dans ce chapitre, nous appelons à sortir de cette polarisation pour développer une posture que nous nommerons techno-lucidité. Il ne s’agit ni d’idéaliser ni de diaboliser l’IA, mais de cultiver une conscience critique, informée et active sur ses usages, ses limites et ses impacts.


    Acquis : 

    • Comprendre ce qu’est la techno-lucidité et ce qu’elle n’est pas, en la distinguant à la fois du solutionnisme technologique et de la technophobie
    • Identifier les gestes concrets et les postures critiques qui incarnent la techno-lucidité au quotidien, dans nos usages comme dans les métiers de la tech
    • Reconnaître la techno-lucidité comme une compétence citoyenne essentielle, indispensable pour participer démocratiquement aux choix technologiques qui nous concernent tous
  • 19

    IA responsable et gouvernance

    19 min

    À l’heure où l’IA infiltre tous les pans de la société, la question de sa gouvernance devient cruciale. Dans cet épisode, nous souligne que la réponse aux défis posés par l’IA ne peut pas être laissée à la seule responsabilité individuelle, ni à des démarches volontaires d’éthique des entreprises. Nous appelons à une approche systémique et collective, fondée sur des principes démocratiques, sociaux et écologiques. Ce chapitre propose une vision articulée autour de trois axes majeurs : la reprise d’un contrôle démocratique sur l’IA, l’invention d’un nouveau paradigme numérique au service du bien commun, et la construction d’un mouvement de résistance citoyenne, joyeux et créatif.


    Acquis : 

    • Comprendre les enjeux politiques et géopolitiques liés à la concentration du pouvoir technologique et à l’absence de contrôle démocratique sur l’IA
    • Identifier les fondements d’une gouvernance numérique responsable, centrée sur les communs, la participation citoyenne, et la justice sociale et écologique
    • Reconnaître les formes actuelles de résistance citoyenne et les leviers d’action pour co-construire un numérique plus juste : syndicats, droit, innovation communautaire, éducation populaire
  • 20

    Utopie

    16 min

    Dans cet épisode de fiction qui fait écho à l’épisode 5 “Dystopie”, nous imaginons un futur désirable où l’intelligence artificielle est mise au service du bien commun, dans le respect des équilibres sociaux, culturels et écologiques. Nous découvrons un monde où les technologies sont co-construites avec les habitants, gouvernées de façon démocratique, et déployées avec sobriété pour renforcer l’autonomie des communautés et la résilience des écosystèmes. Cette utopie technopolitique ne repose pas sur des prouesses algorithmiques, mais sur des choix collectifs guidés par la justice sociale, l’inclusion des savoirs et le respect du vivant. Elle nous invite à penser l’IA non comme une fin, mais comme un levier au service d’une société plus juste, plus sobre et plus humaine.


    Acquis : 

    • Se projeter dans des futurs souhaitables où l’IA est conçue et gouvernée de manière collective et démocratique
    • Comprendre comment l’IA peut renforcer les communs, les solidarités locales et la résilience écologique à travers des usages sobres et adaptés
    • Identifier les conditions politiques, sociales et techniques qui rendent possible une technologie véritablement au service du bien commun

Ce grand cours Sator propose une analyse critique, accessible et rigoureuse de l’intelligence artificielle. Loin des fantasmes technophiles comme des discours alarmistes, il invite à déconstruire les mythes dominants autour de l’IA et à en comprendre les implications concrètes.

S’appuyant sur 20 épisodes structurés, le cours explore les mécanismes techniques à l’origine des algorithmes, leurs cas d’usage, mais aussi...

S’appuyant sur 20 épisodes structurés, le cours explore les mécanismes techniques à l’origine des algorithmes, leurs cas d’usage, mais aussi les enjeux systémiques qu’ils soulèvent : impacts environnementaux, concentration du pouvoir, dépendances invisibles, perte d’autonomie cognitive, biais et discriminations. Il met en lumière les ressorts idéologiques, économiques et géopolitiques qui façonnent l’IA actuelle.


Mais il ne s’arrête pas à la critique. Le cours ouvre aussi des pistes concrètes pour se réapproprier ces technologies, imaginer d’autres modèles de développement technologique, et construire une gouvernance démocratique et écologique de l’IA.


Un parcours indispensable pour toutes celles et ceux qui souhaitent comprendre les transformations à l’œuvre et agir pour que l’intelligence artificielle soit réellement mise au service du bien commun.

Durée du cours: 20 leçons vidéos (10 h)
Catégories: Nouvelle économie

Ce que je vais apprendre dans cette formation

  • Comprendre ce qu’est (et n’est pas) l’intelligence artificielle, à travers une approche accessible, rigoureuse et sans jargon

  • Identifier les principales familles d’algorithmes d’IA (prédictive, générative, recommandation…) et leurs domaines d’application

  • Acquérir une culture historique sur l’évolution de l’IA, de ses origines aux récents tournants technologiques

  • Déconstruire les principaux mythes autour de l’IA : neutralité, sur-intelligence, objectivité, inévitabilité…

  • Analyser les impacts systémiques de l’IA sur l’environnement, le travail, la démocratie, les inégalités et l’autonomie individuelle

  • Comprendre les logiques économiques, industrielles et géopolitiques qui façonnent la recherche et le déploiement des IA

  • Développer une pensée critique face aux discours techno-solutionnistes et au marketing de l’innovation

  • Identifier les risques concrets associés à la gouvernance algorithmique et à la privatisation du numérique

  • Explorer des modèles alternatifs d’IA éthique, inclusive, sobre et au service de l’intérêt général

  • Renforcer son autonomie informationnelle et ses capacités à participer au débat public sur l’avenir du numérique

Certifié Qualiopi

  • Modalité d’évaluation : QCM - 4 sessions : une session tous les 5 épisodes environ, 10 à 15 questions chacune

  • Aucun prérequis nécessaire

  • Personne en situation de handicap, ou pour toute autre demande : écrivez-nous à contact@sator.fr

  • Taux de complétion moyen de la masterclass depuis sa création : 60 à 70%

  • Taux de réussite aux QCM depuis sa création : 73%

  • Support technique et pédagogique : écrivez-nous à contact@sator.fr

À Propos de 
Théo Alves Da CostaThéo Alves Da Costa
Théo est ingénieur en IA et activiste geek pour la justice sociale et environnementale. Il a commencé à programmer à l’âge de 12 ans. Passionné des possibilités de création que lui offre l'informatique, il se tourne vers une formation d’ingénieur en analyse de données et en intelligence artificielle avant de bifurquer dans la lutte contre le changement climatique.
  • Diplômé en Data Science de l’École Centrale Paris et ingénieur en IA depuis plus de 10 ans 
  • Président de l'ONG Data for Good et bénévole depuis 10 ans : il y a piloté des dizaines de projets numériques pour l’intérêt général tout en prenant la parole pour dénoncer les dérives sociales, environnementales et démocratiques de la technologie.
  • Directeur de la branche « IA et transition écologique » dans l’entreprise française spécialisée en analyse de données Ekimetrics qu’il a rejoint il y a 10 ans, dans laquelle il conçoit et déploie des systèmes d’IA pour les organisations publiques et privées.
  • Concepteur de l’outil gratuit ClimateQ&A, un assistant permettant d’interroger les rapports du GIEC grâce à l’intelligence artificielle, utilisé aujourd’hui par des dizaines de milliers de spécialistes dont les scientifiques climatiques.
  • Lauréat 2023 du palmarès du Cercle de Giverny des 50 jeunes qui transforment la France et de la promotion 2023 Social Demain « Celles et ceux qui feront le social demain ».
Questions Fréquentes
  • Combien de temps prend la préparation d’un cours ?

    Chez Sator, notre travail est finalement assez proche de celui d’un éditeur : nous accompagnons le professeur sur une durée d'à peu près 4 mois (pas à temps plein, bien sûr !) avec Camille, notre responsable pédagogique. Un cycle de préparation long qui garantit la qualité, les sources et la pédagogie des contenus, en plus de différents rendez-vous « d’entrainement ». Le tournage se déroule sur 3 jours, et nous mettons ensuite 3 mois à produire le Grand cours, avec la relecture du professeur.

  • Que veut dire Sator ?

    Sator signifie « celui qui sème » en latin, au sens pour nous de semer la connaissance. En japonais, Satori signifie « le chemin de l’éveil spirituel », ou « chemin de l’unité ». Un hasard linguistique… ou une belle synchronicité, puisqu’il raisonne particulièrement bien avec notre raison d’être ! Enfin, le carré Sator est le nom du carré palindrome, dont on disait qu’il était le carré magique des templiers. Tous les mots y sont reliés et vous pouvez les lire dans tous les sens. Un peu comme les sujets que nous traitons, qu'il faut aborder avec une approche holistique.

  • À quoi ressemble l’équipe Sator ?

    Notre équipe est constituée de 6 personnes en « central » et d’une petite dizaine de prestataires complices pour la production. Pierre s’occupe de la ligne éditoriale, avec son expertise de prospectiviste ; Camille s’occupe de l’accompagnement pédagogique ; Léa s’occupe de la direction artistique/production ; Titouan s’occupe de la communication et Juliette s’occupe des communautés d’apprenants. Côté prod, Fabrice s’occupe de la captation, OKB (Gaston et Florent) produit les teasers, Micelium Pro (Léo, Antoine et les autres) ainsi qu’Emma, Mathilde, Pascal, Perrine et Lucile s’occupent du montage, habillage et motion design (schémas animés).

  • Sator est-il un organisme de formation certifié ?

    Oui, Sator est certifié Qualiopi. Les entreprises peuvent donc solliciter leurs OPCO pour prendre en charge la diffusion des formations Sator à leurs collaborateurs. Les élus peuvent aussi les faire financer, tout comme les fonctionnaires.

  • Que permet l’espace communauté ?

    Cet espace permet de faire vivre le thème du cours dans le temps : vous pouvez y poster et lire un travail de veille et d’analyse, poser des questions au professeur, organiser simplement des rencontres avec les autres diplômés, des conférences, construire des projets, contacter chacun via une messagerie privée, recevoir des invitations spécifiques à des événements Sator, et bientôt d’autres possibilités novatrices à venir !

Abonnement mensuel sans engagement

Achetez à l’unité la formation qui vous intéresse, pour un accès illimité dans le temps.