2017 a été une bonne année pour l'IA, l'apprentissage automatique et surtout la branche de l'apprentissage en profondeur qui a donné bon nombre des percées qui ont eu le plus d'impact en 2017, des gagnants de jeux à l'art qui rivalise avec les humains.

  1. AlphaZero de DeepMind a réussi à battre les champions du Go, des échecs et du shogy.
    Après avoir remporté le champion du monde de Go, AlphaGo un an plus tard, il a été mis à jour et converti en AlphaZero, qui a réussi sans supervision humaine, uniquement avec les règles de base du jeu, à apprendre à jouer aux échecs comme un expert en seulement 4 heures ; et il l'a prouvé en battant l'IA Stockfish, jusqu'alors le meilleur joueur d'échecs basé sur l'IA.
  2. Universe openAI a été approuvé par d'excellents partenaires
    Universe est une plate-forme gratuite où les développeurs peuvent former un agent d'IA en utilisant l'apprentissage par renforcement dans différents environnements tels que des sites Web, des applications et des jeux. Lancée en décembre 2016, la plateforme a gagné du terrain en 2017, attirant des partenaires comme EA, Valve et Microsoft Studios en profitant de l'opportunité pour les agents d'IA d'Universe de parcourir et d'apprendre de leurs jeux.
  3. Sonnet et Tensorflow Eager rejoignent les systèmes open source
    Après que Google a publié sa bibliothèque d'apprentissage automatique open source Tensorflow en 2015, il a été suivi par Magenta (un projet de recherche explorant le rôle de l'apprentissage automatique dans le processus de création artistique et musicale) également de Google. Facebook AI a publié un an plus tard PyThorch, une plate-forme d'apprentissage en profondeur python qui prend en charge les graphiques informatiques dynamiques. En 2016, Google a également introduit Tensorflow Eager. En 2017 et via sa filiale DeepMind, Google a lancé Sonnet, un système open source qui permet aux développeurs de créer facilement des modules de réseaux de neurones.
  4. Facebook et Microsoft ont uni leurs forces pour permettre des systèmes d'IA combinables
    Les géants de la technologie ont créé ONNX (Open Format for Representing Deep Learning Models) qui permet de former des modèles sur un système et de les transférer sur un autre par inférence.
  5. UNITY a permis aux développeurs de créer facilement des agents intelligents dans les jeux
    L'un des principaux développeurs de jeux au monde Unity Technologies créé Agents d'apprentissage automatique Unity. Une plate-forme qui permet aux développeurs et aux chercheurs en IA d'utiliser des simulations et des jeux comme environnements personnalisables où ils peuvent former des agents intelligents à l'aide de stratégies évolutives, d'apprentissage en profondeur et par renforcement, entre autres.
  6. Les plateformes d'apprentissage automatique en tant que service sont partout
    De plus en plus d'entreprises ont rejoint la course pour créer des plateformes d'apprentissage automatique internes et des centres d'excellence d'apprentissage en profondeur. Uber a Michelangelo, Facebook a FBLearner Flow, Twitter a Cortex. Capital One et d'autres entreprises avant-gardistes en dehors de l'environnement technologique de base ont également établi leurs propres centres d'excellence en apprentissage automatique.
    Amazon, Microsoft, IBM et Google ont décidé d'ouvrir leurs API pour essayer de démocratiser l'utilisation de l'IA et de la partager avec des entreprises qui n'ont pas le talent ou la capacité de créer la leur.
  7. La variété GAN a continué
    En janvier 2017, une équipe de chercheurs en IA a publié un article sur les GAN de Wasserstein (WGAN), une amélioration substantielle par rapport au GAN traditionnel (réseau antagoniste génératif). Ce qui a engendré une foule de nouveaux GAN, de A COMMENCÉ jusqu'à CycleGan et GAN progressif qui a également été rejoint par la formation GAN progressive, C'est cette dernière approche qui a permis à Nvidia de générer de fausses photos haute résolution de célébrités.
  8. La récurrence et la convolution ne sont pas nécessaires si vous avez l'attention.
    Les tâches de traitement du langage naturel telles que la reconnaissance vocale et la traduction automatique ont toujours été traitées avec des architectures de réseau neuronal avec des composants de mémoire, tels que LSTM. Un article révolutionnaire, "Attention Is All You Need", a proposé un nouveau modèle, le transformateur, qui supprime les éléments coûteux tels que la récursivité et la convolution pour obtenir des performances de nouvelle génération dans les tâches de traduction automatique, du moins pour l'anglais et l'allemand. Bien que des recherches supplémentaires soient nécessaires pour voir si l'architecture de Transformer résiste à tous les cas d'utilisation, le message a généré des tonnes de commentaires dans la communauté et a été classé comme le 4e message le plus populaire de tous les temps sur Arxiv (Proprietary Online Archive). )
  9. AutoML a simplifié la vie des data scientists et des ingénieurs en machine learning.
    La plupart des développeurs trouvent souvent l'apprentissage automatique beaucoup plus "difficile", car le processus de création et de formation de modèles (puis de leur déploiement en production) est trop compliqué et prend du temps.
    Les plates-formes qui automatisent le traitement de grandes quantités de données à partir de sources pour former l'apprentissage automatique, allant du nettoyage et de la préparation des données à la recherche et à l'optimisation des paramètres de modèle, au déploiement et à la mise à l'échelle, ont contribué au fait que la partie "difficile" de l'apprentissage automatique est un problème de moins pour ces professionnels. Avec des plateformes comme AutoML de Google, SageMaker d'Amazon ou DataRobot, ces tâches ont été grandement rationalisées.

source: topbots

Continuer à lire: