événement

16
nov.

SophIA Summit à Sophia Antipolis

La 5ème édition du Soph.i.A Summit se tiendra du 16 au 18 novembre 2022.

Retour sur l’édition 2021 :

Organisée par Université Côte d’Azur, la Communauté d’Agglomération de Sophia Antipolis et le Sophia Club Entreprises avec le soutien du département des Alpes Maritimes, la 4ème édition du Soph.I.A Summit s’est clôturé vendredi 19 novembre 2021 dernier depuis Sophia Antipolis.

Ce grand rendez-vous, au service de la collaboration interdisciplinaire et internationale, dévoile les dernières avancées dans le domaine de l’intelligence artificielle et de ses applications dans différents domaines. Cette dernière journée fut consacrée aux fondamentaux de l’intelligence artificielle, à la remise des prix des études les plus prometteuses ainsi qu’à l’intervention de Lucilla Sioli pour présenter la stratégie en matière d’intelligence artificielle de l’Union Européenne.

AI & Fundamentals

La matinée a débuté avec la présentation de Giovanni Neglia (Inria – Chaire 3IA), qui a fait un exposé sur l’approche  Federated Learning .

Ce cadre collaboratif d’apprentissage automatique a été développé pour répondre à la taille croissante des données générées par les smartphones et les dispositifs IoT. Il apporte notamment une réponse intéressante sur la manière de traiter les données locales en les agrégeant sur des datacenters successifs, plutôt que de tout rapatrier sur un datacenter unique et central. Ce modèle se heurte toutefois à des problématiques de lenteur et de fiabilité, mais aussi d’hétérogénéité des données. Pour répondre à ces enjeux, Giovanni Neglia et son équipe travaillent sur une variante du Federated Learning, appelée Pervasive Sustainable Learning Systems (PERUSALS), qui consiste à exploiter des nœuds plus robustes et plus puissants.

Elena Cabrio (Université Côte d’Azur – Chaire 3IA) s’est ensuite exprimée sur le sujet de l’IA et du langage naturel. Il existe une variété de tâches langagières qui, bien que simples et secondaires pour les humains, sont encore très difficiles pour une machine. L’objectif à long terme des recherches d’Elena Cabrio est de rendre les machines aussi compétentes que les êtres humains dans la compréhension et la génération du langage, en étant ainsi capables : de parler, de faire des déductions, de s’appuyer sur des connaissances communes, de répondre, de débattre, d’aider les humains à prendre des décisions, d’expliquer, de persuader.

Après un premier break, Gabriel Peyré (CNRS) a exposé à l’audience son projet de recherche  Optimal Transport for AI.

Le transport optimal (OT) a récemment suscité beaucoup d’intérêt dans le domaine de l’apprentissage automatique. Il s’agit d’un outil naturel pour comparer d’une manière géométriquement fidèle des distributions de probabilité. Il trouve des applications à la fois dans l’apprentissage supervisé (en utilisant des fonctions de perte géométriques) et l’apprentissage non supervisé (pour effectuer l’ajustement de modèles génératifs). L’OT est cependant confronté à la malédiction de la dimensionnalité, car il peut nécessiter un nombre d’échantillons qui croît de manière exponentielle. Dans son exposé, Gabriel Peyré a expliqué comment tirer parti des méthodes de régularisation entropique pour définir des modèles d’apprentissage. méthodes de régularisation entropique pour définir des fonctions de perte efficaces en termes de calcul, en approchant l’OT avec une meilleure complexité d’échantillon.

Ensuite, Pierre-Alexandre Mattei (INRIA – 3IA Chair) a pris la parole pour presenter la contribution « How to deal with missing data in supervised deep learning? »

La question des données manquantes dans l’apprentissage supervisé a été largement négligée, en particulier dans la communauté du deep learning. Avec son équipe, Pierre-Alexandre Mattei étudient des stratégies pour adapter les architectures neuronales à la gestion des valeurs manquantes en se concentrant sur les problèmes de régression et de classification où les caractéristiques sont supposées manquer au hasard. Les schémas qui permettent de réutiliser telle quelle une architecture neuronale discriminante présentent un intérêt particulier. Pour aborder l’apprentissage profond supervisé avec des valeurs manquantes, Pierre-Alexandre Mattei propose de marginaliser les valeurs manquantes dans un modèle conjoint de covariance. Cela permet de tirer parti à la fois de la flexibilité des modèles génératifs profonds pour décrire la distribution des covariables et de la puissance des modèles purement discriminatifs pour faire des prédictions. Plus précisément, un modèle de variable latente profonde peut être appris conjointement avec le modèle discriminant, ce qui permet d’obtenir des prédictions.

A suivi la présentation d’Anna Shvets (Inetum),« Finetunning and evaluation of the constraint-based NLG models ».

L’importance de la génération en langage naturel (NLG) pour l’augmentation des données textuelles ne peut pas être surestimée, surtout lorsqu’il s’agit de données avec des restrictions légales élevées, comme les rapports médicaux. Cependant, le développement de modèles NLG efficaces repose sur l’application de repères pertinents, mesurant la qualité du texte généré par rapport à la norme humaine dorée et par rapport à d’autres modèles effectuant des tâches similaires. Les travaux d’Anna Shvets proposent une approche collaborative pour aborder ce vaste sujet d’évaluation comparative des NLG.

Frédéric Guyard (Orange Lab Sophia Antipolis) a ensuite présenté « Spiking Neural Networks for Time Series Forecasting ».

L’avènement des modèles de réseaux neuronaux profonds (DNN) a certainement été l’une des principales avancées majeures de ces dernières décennies. Leurs réalisations les ont amenés à devenir des modèles de choix dans pratiquement tous les domaines de l’apprentissage automatique. Cependant, leurs performances sans précédent ont pour coût d’une complexité de calcul et d’une consommation d’énergie considérables. En revanche, les réseaux de neurones à pointes (SSN) offrent des alternatives à ces modèles promettant des complexités de calcul beaucoup plus faibles et un budget énergétique réduit. Les SNN ont atteint d’excellentes performances dans des tâches de classification d’images ou de sons par exemple. Leur dépendance temporelle explicite les positionne comme modèles naturels pour traiter les séries temporelles. Il s’avère que, dans la littérature scientifique ou technique actuelle, les SNN sont principalement utilisés dans le traitement des séries temporelles pour leurs capacités de classification. Les recherches, toujours en cours, dans lequel les performances des SNN et des DNN sont comparées pour des tâches de prévision de séries temporelles. Afin d’obtenir des bases pertinentes pour la comparaison, des cas simples sont abordés avec un accent particulier sur la prévision de séries temporelles ARMA pour laquelle de nombreux résultats peuvent être dérivés analytiquement.

À son tour, Vorakit Vorakitpha (Université Côte d’Azur, Inria, CNRS, I3S) a présenté « Don’t discuss: Investigating Semantic and Argumentative Features for Supervised Propagandist Message Detection and Classification ».

Avec cette étude, il vise à faire avancer la recherche sur la détection de la propagande en ligne basée sur l’analyse de texte, étant donné le rôle crucial que ces méthodes peuvent jouer dans la résolution de ce problème sociétal majeur. Plus précisément, il propose une approche supervisée pour classer les extraits textuels en tant que messages de propagande et en fonction de la technique de propagande appliquée, ainsi qu’une analyse linguistique détaillée des caractéristiques de l’information de propagande dans le texte (par exemple, les caractéristiques sémantiques, de sentiment et d’argumentation). Des expériences approfondies menées sur deux ressources propagandistes disponibles permet d’obtenir des résultats satisfaisants notamment sur l’identification automatique de messages propagandistes.

Enfin, Serena Villata (Université Côte d’Azur, INRIA), a présenté ses travaux « Multi-view Clustering for Hate Speech and Target Community Detection on Social Media », qui contribuent à la conception et à la mise en œuvre de méthodes efficaces pour surveiller et combattre les discours de haine en ligne, dans le double but de préserver la liberté d’expression des individus et de protéger les victimes potentielles contre la discrimination, la déshumanisation et l’incitation à la haine.

L’après-midi a débuté par une première session de présentation de posters aux participants puis s’est poursuivi sur une cérémonie de clôture composée d’une remise de prix. Le prix du meilleur poster a été remis à Anaïs Ollagnier, Elena Cabrio, Serena Villata (Université Côte d’Azur, Inria, CNRS, I3S) sur la détection de clusters de discours haineux et de communautés cible sur les réseaux sociaux. Le prix de la meilleure démonstration a été remis à la startup Videtics pour son outil de génération d’images contrôlée par l’apprentissage profond pour adapter les modèles à différents environnements de production (utilisé pour des applications dans la sécurité/surveillance via l’analyse vidéo).

Les participants ont ensuite pu bénéficier de deux keynotes inspirantes.

Tout d’abord, celle d’Alexandre Bayen (UC Berkeley) – Lagrangian control at large and local scales in mixed autonomy traffic flow a exposé son étude du contrôle lagrangien (mobile) du flux de trafic à l’échelle locale (niveau du véhicule) et plus précisément sur comment les véhicules à conduite autonome vont changer les modèles de flux de trafic. Cette étude explore l’intégration graduelle et complexe des véhicules automatisés dans le système de circulation existant et présente l’impact potentiel d’une petite fraction de véhicules automatisés sur la dynamique d’un faible trafic en utilisant de nouvelles techniques d’apprentissage par renforcement profond sans modèle, dans lesquelles les véhicules automatisés agissent comme des contrôleurs mobiles (lagrangiens) du flux de trafic.

Puis celle, Lucilla Sioli (directrice de l’intelligence artificielle et de l’industrie numérique, DG CNECT, Commission européenne) qui a rappelé les grands enjeux de l’intelligence artificielle au sein de l’Union Européenne et présenté la stratégie des pays membres en la matière aussi bien pour développer l’innovation et faire de l’UE l’une des grandes places mondiales de cette discipline que pour le respect de la vie privée et des droits fondamentaux.

A propos de Soph.I.A Summit

Le SophI.A Summit est le rendez-vous de référence des experts de l’I.A. , des experts internationaux issus du monde académique et d’entreprises de premier rang. Chaque année, durant 3 jours, des experts internationaux issus du monde académique et d’entreprises de premier rang viennent y exposer leurs recherches et partager leurs réflexions sur l’Intelligence Artificielle, son développement et ses impacts sur plusieurs domaines d’actualité et d’avenir.

Pour en savoir plus sur le Soph.I.A Summit : https://univ-cotedazur.fr/events-uca/sophia-summit

SophI.A Summit

Quand

Du 16 au 18 novembre 2021

Sophia Antipolis

Partagez cette page :

Partager sur linkedin
Partager sur twitter
Partager sur facebook

Plateforme Team Côte d’Azur

Créez votre projet, échangez avec les acteurs phares de l’écosystème azuréen, ayez la primeur des événements et des infos incontournables !

Team Côte d’Azur
400, Promenade des Anglais
BP 3185
06204 Nice Cedex 3 France
+33(0)4 92 17 51 51
info@teamcotedazur.fr

Restons En Contact

Inscrivez Vous À Notre Newsletter

Prendre rendez-vous

Laissez-nous vos coordonnées
pour prévoir une rencontre avec l’un de nos experts.