Les modèles de ML sont souvent des boites noires qu’on évalue selon leurs performances sans savoir exactement comment leurs décisions sont prises. Obtenir les meilleures performances possible peut suffire, mais comprendre les décisions est de plus en plus indispensable.
L’autoML est-il la fin des Data Scientists ? Découvrez comment la combinaison de 2 approches permet aux Data Scientists Aquila Data Enabler de gagner en pertinence sur des problématiques de forecasting et de détection d’anomalies.
Le Deepfake est une technique d’Intelligence Artificielle qui consiste à générer de la donnée synthétique très réaliste. Il peut s’appliquer à différents types de données, par exemple une image, une vidéo, un son (musique, voix), ou encore une écriture. Bienvenue dans Fake Wars !
The amount of textual content generated everyday is growing at an exponential rate. Such large numbers of textual data is a valuable source of knowledge, unfortunately it becomes impractical for anyone to process all the available information.
La quantité de contenu textuel généré chaque jour augmente à un rythme exponentiel. Un si grand nombre de données est une source précieuse de connaissances qui constitue un vrai challenge à traiter et analyser. La synthèse textuelle automatique est une solution à ce problème.
Activer notre smartphone via une simple commande vocale, dicter à sa voiture la destination souhaitée, demander à un assistant vocal de commander à manger… Les applications basées sur la voix sont de plus en plus nombreuses.
De la classification d’images au transfert de style, en passant par la détection d’objets, les applications au sein des entreprises se multiplient. Dans cet article, nous présentons plus spécifiquement les réseaux de neurones convolutionnels, utilisés pour les tâches de classification d’images et de détection d’objets.
Les Réseaux Antagonistes Génératifs (GAN) sont un nouveau type de réseau de neurones profonds (deeplearning). Leur objectif est de pouvoir estimer et représenter une distribution de données. Découvrez comment.
L’interprétation de modèles de Machine Learning complexes est aujourd’hui un enjeu important dans le domaine de la Data Science. Comprendre les paramètres qui ont influencés chaque valeur prédite est donc essentiel.