Il 2017 è stato un buon anno per l'intelligenza artificiale, l'apprendimento automatico e in particolare il ramo del deep learning ha dato molti dei progressi che hanno avuto un impatto maggiore durante il 2017, dai vincitori dei giochi all'arte che compete con gli umani.

  1. AlphaZero di DeepMind è riuscito a battere i campioni di Go, scacchi e shogy.
    Dopo aver vinto il campione del mondo di Go, AlphaGo un anno dopo, è stato aggiornato e convertito in AlphaZero, che è riuscito senza supervisione umana, solo con le regole base del gioco, ad imparare a giocare a scacchi come un esperto in sole 4 ore; e lo ha dimostrato battendo l'IA Stockfish, fino a quel momento il miglior giocatore di scacchi basato sull'IA.
  2. Universe openAI è stato approvato da ottimi partner
    Universe è una piattaforma gratuita in cui gli sviluppatori possono addestrare un agente di intelligenza artificiale utilizzando l'apprendimento per rinforzo in diversi ambienti come siti Web, app e giochi. Lanciata a dicembre 2016, la piattaforma ha guadagnato terreno nel 2017, attirando partner come EA, Valve e Microsoft Studios sfruttando l'opportunità per gli agenti AI di Universe di navigare e imparare dai loro giochi.
  3. Sonnet e Tensorflow Eager si uniscono ai sistemi open source
    Dopo che Google ha rilasciato la sua libreria di apprendimento automatico open source Tensorflow nel 2015, è stata seguita da Magenta (un progetto di ricerca che esplora il ruolo dell'apprendimento automatico nel processo di creazione artistica e musicale) sempre di Google. Facebook AI ha rilasciato un anno dopo PyThorch, una piattaforma di deep learning Python che supporta la grafica di elaborazione dinamica. Nel 2016 Google ha introdotto anche Tensorflow Eager. Nel 2017 e attraverso la sua consociata DeepMind, Google ha lanciato Sonnet, un sistema open source che semplifica agli sviluppatori la creazione di moduli di reti neurali.
  4. Facebook e Microsoft hanno unito le forze per abilitare sistemi di intelligenza artificiale combinabili
    I giganti della tecnologia hanno creato ONNX (Open Format for Representing Deep Learning Models) che consente di addestrare i modelli su un sistema e trasferirli su un altro per inferenza.
  5. UNITY ha permesso agli sviluppatori di creare facilmente agenti intelligenti nei giochi
    Uno dei principali sviluppatori di giochi al mondo Unity Technologies ha creato Agenti di machine learning Unity. Una piattaforma che consente a sviluppatori e ricercatori di intelligenza artificiale di utilizzare simulazioni e giochi come ambienti personalizzabili in cui possono addestrare agenti intelligenti utilizzando strategie evolutive, apprendimento profondo e per rinforzo, tra gli altri.
  6. Le piattaforme di machine learning come servizio sono ovunque
    Sempre più aziende si sono unite alla corsa per costruire piattaforme di machine learning interne e centri di eccellenza per il deep learning. Uber ha Michelangelo, Facebook ha FBLearner Flow, Twitter ha Cortex. Anche Capital One e altre aziende lungimiranti al di fuori dell'ambiente tecnologico di base hanno stabilito i propri centri di eccellenza nell'apprendimento automatico.
    Amazon, Microsoft, IBM e Google hanno deciso di aprire le loro API per provare a democratizzare l'uso dell'IA e condividerlo con aziende che non hanno il talento o la capacità di crearne di proprie.
  7. La varietà GAN ​​è continuata
    Nel gennaio 2017, un team di ricercatori di intelligenza artificiale ha pubblicato un articolo sui Wasserstein GAN (WGAN), un sostanziale miglioramento rispetto al tradizionale GAN (generative adversarial network). Che ha generato una serie di nuovi GAN, da BEGAN fino a CycleGan e GAN progressivo a cui si è aggiunta anche la formazione GAN progressivo, È stato quest'ultimo approccio che ha permesso a Nvidia di generare foto false ad alta risoluzione di celebrità.
  8. La ricorrenza e la convoluzione non sono necessarie se si presta attenzione.
    Le attività di elaborazione del linguaggio naturale come il riconoscimento vocale e la traduzione automatica sono state storicamente affrontate con architetture di reti neurali con componenti di memoria, come LSTM. Un articolo rivoluzionario, "L'attenzione è tutto ciò di cui hai bisogno", ha proposto un nuovo modello, il trasformatore, che aggira le cose costose come la ricorsione e la convoluzione per ottenere prestazioni di nuova generazione per le attività di traduzione automatica, almeno per l'inglese e il tedesco. Sebbene siano necessarie ulteriori ricerche per vedere se l'architettura Transformer regge in tutti i casi d'uso, il post ha generato tonnellate di feedback nella comunità ed è stato classificato come il 4° post più popolare di tutti i tempi su Arxiv (Archivio online proprietario). )
  9. AutoML ha semplificato la vita ai data scientist e agli ingegneri del machine learning.
    La maggior parte degli sviluppatori spesso trova l'apprendimento automatico molto più "difficile", poiché il processo di creazione e addestramento dei modelli (e quindi la loro distribuzione in produzione) è troppo complicato e richiede tempo.
    Le piattaforme che automatizzano l'elaborazione di grandi quantità di dati dalle fonti per addestrare l'apprendimento automatico, che vanno dalla pulizia e preparazione dei dati, alla ricerca e ottimizzazione dei parametri del modello, alla distribuzione e alla scalabilità, hanno contribuito al fatto che la parte "difficile" dell'apprendimento automatico è un problema in meno per questi professionisti. Con piattaforme come AutoML di Google, SageMaker di Amazon o DataRobot, queste attività sono state notevolmente semplificate.

fonte: topbot

Seguire Leendo: