Le deep learning a marqué l’année 2023, avec le succès fulgurant des modèles de langage (LLMs) tels que ChatGPT (OpenAI)[1], Gemini (Google)[2], LLaMA (Facebook)[3]. Ces modèles, entraînés sur d’énormes quantités de données textuelles, parviennent à approximer la distribution probabiliste de leurs données d’entraînement, ce qui leur permet de générer un texte pertinent et cohérent avec […]
Le deep learning a marqué l’année 2023, avec le succès fulgurant des modèles de langage (LLMs) tels que ChatGPT (OpenAI)[1], Gemini (Google)[2], LLaMA (Facebook)[3]. Ces modèles, entraînés sur d’énormes quantités de données textuelles, parviennent à approximer la distribution probabiliste de leurs données d’entraînement, ce qui leur permet de générer un texte pertinent et cohérent avec […]
La virtualisation des capteurs est une application prometteuse de l’industrie 4.0. Grâce à l’intelligence artificielle, la méthode permet de s’affranchir de certaines contraintes et difficultés techniques associées à l’instrumentation des équipements, afin d’analyser et d’interpréter le fonctionnement d’un système en temps réel. Dans cet article, nous approfondirons l’application des capteurs virtuels par IA dans l’industrie aéronautique, […]
Active Learning et Semi-Supervised Learning Retrouvez toutes nos autres videos sur notre chaîne YouTube. Dans le cadre de l’apprentissage supervisé, l’entraînement d’un réseau de neurones repose sur l’exploitation d’un ensemble de données dites labellisées, i.e. qui contiennent des informations permettant de guider l’entraînement du modèle. Dans le cas d’un problème de classification d’images […]
Dans le monde, 2.5 quintillions de bytes de données sont générés par jour en moyenne, et cela ne cesse d’augmenter. Dans l’univers de l’intelligence artificielle, ces données sont une ressource primaire alimentant des algorithmes de plus en plus performants et entrainés. Mais… sont-ils responsables pour autant ?
Cet article présente une nouvelle approche méthodologique pour améliorer l’interprétation des modèles de Deep Learning, qui sont souvent très opaques : la méthode des « Integrated gradients ».
Le Deepfake est une technique d’Intelligence Artificielle qui consiste à générer de la donnée synthétique très réaliste. Il peut s’appliquer à différents types de données, par exemple une image, une vidéo, un son (musique, voix), ou encore une écriture. Bienvenue dans Fake Wars !
La quantité de contenu textuel généré chaque jour augmente à un rythme exponentiel. Un si grand nombre de données est une source précieuse de connaissances qui constitue un vrai challenge à traiter et analyser. La synthèse textuelle automatique est une solution à ce problème.
Activer notre smartphone via une simple commande vocale, dicter à sa voiture la destination souhaitée, demander à un assistant vocal de commander à manger… Les applications basées sur la voix sont de plus en plus nombreuses.