2017 war ein gutes Jahr für KI, maschinelles Lernen und insbesondere der Bereich Deep Learning, der viele der Durchbrüche hervorbrachte, die 2017 den größten Einfluss hatten, von Gewinnern von Spielen bis hin zu Kunst, die mit Menschen konkurriert.

  1. AlphaZero von DeepMind hat es geschafft, die Champions von Go, Schach und Shogy zu schlagen.
    Nachdem es ein Jahr später den Weltmeister von Go, AlphaGo, gewonnen hatte, wurde es aktualisiert und in AlphaZero umgewandelt, das es ohne menschliche Aufsicht, nur mit den Grundregeln des Spiels, schaffte, in nur 4 Stunden zu lernen, Schach wie ein Experte zu spielen; und er bewies es, indem er die KI Stockfish besiegte, bis zu diesem Moment der beste Schachspieler auf KI-Basis.
  2. Universe openAI wurde von großartigen Partnern unterstützt
    Universe ist eine kostenlose Plattform, auf der Entwickler einen KI-Agenten mithilfe von Reinforcement Learning in verschiedenen Umgebungen wie Websites, Apps und Spielen trainieren können. Die im Dezember 2016 gestartete Plattform gewann 2017 an Bedeutung und zog Partner wie EA, Valve und Microsoft Studios an, indem sie die Gelegenheit für die KI-Agenten von Universe nutzten, in ihren Spielen zu stöbern und daraus zu lernen.
  3. Sonnet und Tensorflow Eager schließen sich Open-Source-Systemen an
    Nachdem Google 2015 seine Open-Source-Bibliothek für maschinelles Lernen Tensorflow veröffentlicht hatte, folgte Magenta (ein Forschungsprojekt, das die Rolle des maschinellen Lernens im Kunst- und Musikschöpfungsprozess untersucht), ebenfalls von Google. Facebook AI veröffentlichte ein Jahr später PyThorch, eine Python-Deep-Learning-Plattform, die dynamische Computergrafiken unterstützt. Im Jahr 2016 führte Google außerdem Tensorflow Eager ein. Im Jahr 2017 brachte Google über seine Tochtergesellschaft DeepMind Sonnet auf den Markt, ein Open-Source-System, das es Entwicklern erleichtert, neuronale Netzwerkmodule zu erstellen.
  4. Facebook und Microsoft haben sich zusammengetan, um kombinierbare KI-Systeme zu ermöglichen
    Technologieriesen haben ONNX (Open Format for Representing Deep Learning Models) entwickelt, das es ermöglicht, Modelle auf einem System zu trainieren und durch Inferenz auf ein anderes zu übertragen.
  5. UNITY ermöglichte es Entwicklern, auf einfache Weise intelligente Agenten in Spielen zu erstellen
    Einer der weltweit führenden Spieleentwickler Unity Technologies erstellt Unity-Agenten für maschinelles Lernen. Eine Plattform, die es KI-Entwicklern und -Forschern ermöglicht, Simulationen und Spiele als anpassbare Umgebungen zu nutzen, in denen sie intelligente Agenten unter anderem mithilfe von Evolutionsstrategien, Deep Learning und Reinforcement Learning trainieren können.
  6. Plattformen für maschinelles Lernen als Service gibt es überall
    Immer mehr Unternehmen beteiligen sich am Wettlauf um den Aufbau interner Plattformen für maschinelles Lernen und Kompetenzzentren für Deep Learning. Uber hat Michelangelo, Facebook hat FBLearner Flow, Twitter hat Cortex. Capital One und andere zukunftsorientierte Unternehmen außerhalb des Kerntechnologieumfelds haben ebenfalls eigene Kompetenzzentren für maschinelles Lernen eingerichtet.
    Amazon, Microsoft, IBM und Google haben beschlossen, ihre APIs zu öffnen, um den Einsatz von KI zu demokratisieren und sie mit Unternehmen zu teilen, die nicht über das Talent oder die Fähigkeit verfügen, eigene APIs zu erstellen.
  7. Die GAN-Variante ging weiter
    Im Januar 2017 veröffentlichte ein Team von KI-Forschern einen Artikel über Wasserstein GANs (WGANs), eine wesentliche Verbesserung gegenüber dem traditionellen GAN (Generative Adversarial Network). Was eine Vielzahl neuer GANs hervorbrachte BEGANN bis zu CycleGan und progressivem GAN, zu dem auch progressives GAN-Training hinzukam. Es war dieser letztere Ansatz, der es Nvidia ermöglichte, hochauflösende gefälschte Fotos von Prominenten zu erstellen.
  8. Wiederholung und Faltung sind nicht erforderlich, wenn Sie Aufmerksamkeit haben.
    Aufgaben der Verarbeitung natürlicher Sprache wie Spracherkennung und maschinelle Übersetzung wurden in der Vergangenheit mit neuronalen Netzwerkarchitekturen mit Speicherkomponenten wie LSTM gelöst. In einem bahnbrechenden Artikel mit dem Titel „Aufmerksamkeit ist alles, was Sie brauchen“ wurde ein neues Modell vorgeschlagen: Der Transformator, das auf teure Dinge wie Rekursion und Faltung verzichtet, um bei maschinellen Übersetzungsaufgaben eine Leistung der nächsten Generation zu erreichen, zumindest für Englisch und Deutsch. Obwohl weitere Untersuchungen erforderlich sind, um festzustellen, ob die Transformer-Architektur allen Anwendungsfällen standhält, generierte der Beitrag eine Menge Feedback in der Community und wurde von der Cornell University auf Arxiv (Proprietary Online Archive) als viertbeliebtester Beitrag aller Zeiten eingestuft )
  9. AutoML hat Datenwissenschaftlern und Ingenieuren für maschinelles Lernen das Leben erleichtert.
    Die meisten Entwickler empfinden maschinelles Lernen oft als viel „schwieriger“, da der Prozess des Erstellens und Trainierens von Modellen (und der anschließenden Bereitstellung in der Produktion) zu kompliziert und zeitaufwändig ist.
    Plattformen, die die Verarbeitung großer Datenmengen aus Quellen automatisieren, um maschinelles Lernen zu trainieren, angefangen von der Datenbereinigung und -aufbereitung über die Suche und Optimierung von Modellparametern bis hin zur Bereitstellung und Skalierung, haben dazu beigetragen, den „schwierigen“ Teil des maschinellen Lernens zu bewältigen ist ein Problem weniger für diese Profis. Mit Plattformen wie AutoML von Google, SageMaker von Amazon oder DataRobot wurden diese Aufgaben erheblich vereinfacht.

Quelle: Topbots

Weiter lesen: