DeepMind

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
DeepMind

Logo
Rechtsform
Gründung 23. September 2010
Sitz London
Leitung Demis Hassabis (CEO)
Lila Ibrahim (COO)
Mitarbeiterzahl 700
Branche Künstliche Intelligenz
Website www.deepmind.com
Stand: 1. Dezember 2017

DeepMind (früher Google DeepMind) ist ein Unternehmen, das sich auf die Programmierung einer Künstlichen Intelligenz (KI) spezialisiert hat. DeepMind wurde im September 2010 gegründet und 2014 von Google Inc. übernommen.

Geschichte[Bearbeiten | Quelltext bearbeiten]

DeepMind Technologies war ein britisches Start-up, gegründet 2010 von Demis Hassabis, Shane Legg und Mustafa Suleyman.[1] Zu den ersten Geldgebern gehörten die Venture-Capital-Unternehmen Horizons Ventures und Founders Fund sowie der Business Angel Scott Banister.[2] 2014 wurde das Unternehmen mit dem „Company of the Year“ Award durch das Cambridge Computer Laboratory ausgezeichnet.[3]

Am 26. Januar 2014 gab der US-Konzern Google die Übernahme von DeepMind Technologies bekannt und damit das ebenfalls an DeepMind interessierte Facebook ausgestochen zu haben – es war die bis dahin größte Übernahme der Kalifornier in Europa. Der Preis blieb geheim, Branchenkenner gingen von einem Kaufpreis von etwa 500 Millionen Dollar (365 Millionen Euro) aus.[4][5][6] Mehrere Milliardäre hatten bereits in DeepMind investiert, darunter Elon Musk, CEO des privaten Raumfahrtunternehmens SpaceX und Elektroautohersteller Tesla Motors, Paypal-Gründer und ursprünglicher Facebook-Geldgeber Peter Thiel, der Skype-Mitgründer Jaan Tallinn sowie der Hongkonger Magnat Li Ka-shing von Horizon Ventures, einer der mächtigsten Männer Asiens.[7]

Nach Übernahme firmierte man das Unternehmen in Google DeepMind um. Google setzte auch einen Ethikrat ein, der sicherstellen soll, dass die Technologie von DeepMind nicht missbraucht wird. Die Struktur des Ethikrates blieb unklar.[8]

2015 veröffentlichte das Unternehmen die Ergebnisse eines Forschungsprojektes, bei der die Künstliche Intelligenz alte Atari-Spiele selbstständig erlernen sollte. Nach Angaben von Google DeepMind gelang es der KI, sowohl die Spielregeln zu erlernen als auch Erfolgstaktiken selbstständig zu entwickeln.[9]

Forschung[Bearbeiten | Quelltext bearbeiten]

Das offizielle Unternehmensziel von Google DeepMind ist, Intelligenz zu verstehen („Solve Intelligence“).[1] Im Gegensatz zu anderen Künstlichen Intelligenzen wie beispielsweise Deep Blue von IBM hat Google DeepMind kein vordefiniertes Ziel und ist somit flexibler in der Anwendung für verschiedene Probleme.[10] Google DeepMind unterscheidet sich ebenfalls in der grundsätzlichen Strukturierung der Künstlichen Intelligenz. Statt ausschließlich auf ein neuronales Netz zu setzen, erweiterte man die KI mit einem Kurzzeitspeicher, um somit die Fähigkeit eines künstlichen Gedächtnisses zu simulieren.[11] Die Entwickler von Google DeepMind bezeichnen die Künstliche Intelligenz deshalb auch als „neuronale Turingmaschine“ und nicht als neuronales Netz.[12]

AlphaGo[Bearbeiten | Quelltext bearbeiten]

Bei DeepMind wurde AlphaGo entwickelt, ein Computerprogramm, das ausschließlich das Brettspiel Go spielt. Im Oktober 2015 besiegte es den mehrfachen Europameister Fan Hui.[13] Es ist damit das erste Programm, das unter Turnierbedingungen einen professionellen Go-Spieler schlagen konnte. Zwischen dem 9. und 15. März 2016 trat AlphaGo gegen den südkoreanischen Profi Lee Sedol, 9. Dan, an. Das Programm gewann nach fünf Runden mit 4:1.[13]

AlphaStar[Bearbeiten | Quelltext bearbeiten]

Im Januar 2019 wurde AlphaStar vorgestellt, ein KI-Programm, das das Echtzeit-Strategiespiel StarCraft II spielt. Wie AlphaGo handelt es sich dabei um ein künstliches neuronales Netz, das zunächst menschliche Spieler imitierte, und dann mit Reinforcement Learning trainiert wurde. In zwei Sätzen zu je fünf Spielen gegen die professionellen Spieler Dario „TLO“ Wünsch und Grzegorz „MaNa“ Komincz gewann AlphaStar jedes Spiel. Die Anzahl der Aktionen pro Minute wurde auf ein für Menschen übliches Maß beschränkt. Im Gegensatz zu menschlichen Spielern hat AlphaStar jederzeit einen vollständigen Überblick über die sichtbaren Teile der Karte, fokussiert sich aber dennoch immer nur auf einzelne Bereiche. Ein bei der Vorstellung live übertragenes Spiel konnte MaNa für sich entscheiden. Besondere Stärken von AlphaStar waren Micromanagement und Multitasking. Im letzten Spiel wurde sie durch ungewöhnliche Aktionen des menschlichen Spielers aus dem Tritt gebracht.[14]

WaveNet[Bearbeiten | Quelltext bearbeiten]

WaveNet ist ein neuronales Netzwerk, das ursprünglich ab ca. 2014 zum Zweck der verbesserten, natürlicher klingenden Text-to-Speech-Synthese (TTS) entwickelt wurde, sprich, für menschlicher klingende Vorlesesysteme, indem das Programm natürliche menschliche Stimmen analysieren sollte, um so auch natürlicher klingende Sprache beim Vorlesen von Texten erzeugen zu können.[15] Seit März 2018 bietet Google das auf WaveNet basierende Vorleseprogramm Cloud Text-to-Speech im Rahmen von Google Assistant an.[16][17]

Inzwischen forscht DeepMind aber auch aktiv daran, mit WaveNet existierende individuelle menschliche Stimmen nicht nur zum Vorlesen von Texten möglichst exakt nachzubilden, um es mit ähnlichen Funktionen wie etwa das 2016 von Adobe Inc. vorgestellte Adobe Voco auszustatten. Ein Forschungsbericht vom Juni 2018 mit dem Titel Disentangled Sequential Autoencoder[18] ("Entflochtener sequentieller, automatischer Stimmgenerator") stellt fest, dass es erfolgreich gelungen sei, WaveNet dafür einzusetzen, die Stimme in einer existierenden Tonaufnahme durch jegliche andere reale Stimme zu ersetzen, die denselben Text spricht ("content swapping"). Um diese Fähigkeit zu ermöglichen, seien ca. 50 Stunden an Aufnahmen jeweils der Quell- wie Zielstimme nötig, mit denen WaveNet die grundlegenden Eigenschaften der beiden Stimmen erst lernen muss (wobei es selbstständig ein jeweils eigenes, von den Sprachaufnahmen abstrahiertes Modell der zu erlernenden Stimme erstellt), bevor es die Stimmkonvertierung bei jeder beliebigen neuen Tonaufnahme in annehmbarer Qualität durchführen kann. Die Autoren des Forschungsberichts betonen außerdem, dass WaveNet dazu in der Lage sei, statische und dynamische Eigenschaften voneinander zu unterscheiden (zu: "entflechten"), d. h. das Programm trenne automatisch zwischen den bei der Stimmkonvertierung beizubehaltenden Eigenschaften (Textinhalt, Modulation, Geschwindigkeit, Stimmung usw.) und den zu konvertierenden Grundeigenschaften der Quell- wie Zielstimme.

In einem Nachfolgebericht mit dem Titel Unsupervised speech representation learning using WaveNet autoencoders[19] ("Selbständiges Spachmodellernen mit WaveNet") vom Januar 2019 hieß es, dass DeepMind die Unterscheidung statischer von dynamischen Stimmeigenschaften von WaveNet weiter verbessert habe. In dem weiteren Nachfolgebericht Sample Efficient Adaptive Text-to-Speech[20] ("Samplingeffizienz bei adaptiver Text-to-Speech-Synthese") vom September 2018 (letzte Revision Januar 2019) berichtet DeepMind, das Minimum an benötigten Sprachaufnahmen für das Samplen einer Stimme inzwischen auf wenige Minuten reduziert zu haben.

Im bereits 2014 veröffentlichten Bericht Towards End-to-End Speech Recognition with Recurrent Neural Networks[21] ("Zur vollständigen Spracherkennung mittels rückgekoppelter neuronaler Netze") verwies DeepMind auf erfolgreiche Versuche, WaveNet zur automatischen Verschriftlichung von existierenden Sprachaufnahmen einzusetzen.

Der Forschungsbericht Large-Scale Visual Speech Recognition[22] ("Allgemein einsetzbare optische Spracherkennung") vom Juli 2018 (letzte Revision vom Oktober 2018) geht auf erfolgreiche Versuche ein, WaveNet zum Lippenlesen bei menschlichen Lippenbewegungen auch in völlig stummen Videoaufnahmen einzusetzen, wobei das Programm professionelle menschliche Lippenleser beim Erraten der tatsächlichen Laute bereits deutlich übertreffe. Dieses Feature scheint als eigenständiges WaveNet-Plugin unter dem Titel LipNet entwickelt zu werden.

Gesundheitsdaten[Bearbeiten | Quelltext bearbeiten]

Im Februar 2016 gab die Firma bekannt, dass es in Großbritannien mit der Gesundheitsbehörde National Health Service zusammenarbeitet, um eine iPhone-App mit dem Namen „Streams“ zu entwickeln, allerdings sei es noch zu früh, um sagen zu können, wo KI angewandt werden könnte.[23] Diese soll dabei helfen, Patienten zu überwachen, die an einem „Nierenschaden“ leiden.[24] April 2016 veröffentlichte das Fachmagazin „New Scientist“ Details der Vereinbarung, demnach erhält Google den Zugriff auf die Daten von 1,6 Millionen NHS-Versicherten, die jährlich in den drei Krankenhäusern – Barnet, Chase Farm and the Royal Free – des Royal Free NHS Trust behandelt werden.[25] Die weitreichende Vereinbarung erlaubt einen Datenaustausch weit über das bekannt gegebene hinaus.[25] Enthalten sind die Daten von HIV-positiven Patienten, Drogenabhängigen oder Frauen, die Abtreibungen vornehmen ließen. Eine Opt-Out-Möglichkeit (Möglichkeit der Verweigerung) für Patienten gab es nicht. Neben den pathologischen und radiologischen Ergebnissen werden die Daten der Intensivmedizin und der Notfallabteilungen übertragen, sowie die vollständigen Tagesaktivitäten der Kliniken, der Zustand und die Unterbringung der Patienten und die Krankenhausbesuche (wer und wann) werden übermittelt. Darüber hinaus bedeutet der Datenzugang auf die zentralen Aufzeichnungen aller NHS-Krankenhaus-Behandlungen in Großbritannien, dass es auf historische Daten der vergangenen fünf Jahre zurückgreifen kann – zusätzlich zu den neu auflaufenden Daten.

Kritiker fürchten dabei um die Intimsphäre und den Datenschutz. Das Personal von Google soll aber nicht in der Lage sein, bestimmte Patienten zu identifizieren und die Daten sollen nicht mit Google-Konten oder Produkten verbunden werden, erklärte Mustafa Suleyman, Leiter des Bereichs „Angewandte KI“ bei DeepMind.[26][27][28]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b Google DeepMind Unternehmens Website.
  2. "DeepMind Technologies Investors" (abgerufen am 12. März 2015).
  3. "Hall of Fame Awards: To celebrate the success of companies founded by Computer Laboratory graduates." von Cambridge University (abgerufen am 12. März 2015).
  4. "DeepMind: Google kauft Start-up für künstliche Intelligenz", Spiegel.de, 27. Januar 2014
  5. "Google Acquires Artificial Intelligence Startup DeepMind For More Than $500M", TechCrunch, abgerufen am 12. März 2015.
  6. "Google buys UK artificial intelligence startup Deepmind for £400m", The Guardian, abgerufen am 12. März 2015.
  7. Googles Superhirn: DeepMind-Chef Demis Hassabis baut die ultimative Denkmaschine.
  8. Google Beat Facebook for DeepMind, Creates Ethics Board.
  9. "Google KI DeepMind erlernt selbstständig alte Spieleklassiker", Bluemind.tv, 10. März 2015.
  10. Playing Atari with Deep Reinforcement Learning, arxiv:1312.5602v1
  11. "Google DeepMind: Die künstliche Intelligenz" von Bluemind.tv (abgerufen am 12. März 2015)
  12. Neural Turing Machines, arxiv:1410.5401
  13. a b Google-Software besiegt Go-Genie auch im letzten Match. FAZ, 15. März 2016, abgerufen am 13. September 2017.
  14. James Vincent: DeepMind’s AI agents conquer human pros at Starcraft II. In: The Verge. 24. Januar 2019, abgerufen am 25. Januar 2019 (englisch).
  15. Oord u. a. (2016): WaveNet: A Generative Model for Raw Audio, Cornell University, 19. September 2016
  16. Novet, Jordan (2018): Google is finding ways to make money from Alphabet's DeepMind A.I. technology, 31. März 2018, CNBC
  17. Aharon, Dan (2018): Introducing Cloud Text-to-Speech powered by DeepMind WaveNet technology, Google Cloud Platform Blog, 27. März 2018
  18. Li & Mand (2018): Disentangled Sequential Autoencoder, 12. Juni 2018, Cornell University
  19. Chorowsky u. a. (2019): Unsupervised speech representation learning using WaveNet autoencoders, 25. Januar 2019, Cornell University
  20. Chen u. a. (2018): Sample Efficient Adaptive Text-to-Speech, 27. September 2018, Cornell University. Letzte Revision desselben Berichts vom Januar 2019.
  21. Graves & Jaitly (2014): Towards End-to-End Speech Recognition with Recurrent Neural Networks, 2014, Cornell University
  22. Shillingford u. a. (2018): Large-Scale Visual Speech Recognition, 13. Juli 2018, Cornell University
  23. Googles KI-Abteilung geht Medizinprojekt an - ZDNet.de. 25. Februar 2016.
  24. DeepMind soll helfen, Leben zu retten.
  25. a b Hal Hodson: Revealed: Google AI has access to huge haul of NHS patient data.
  26. Laura Donnelly: Controversy as Google given access to NHS patient data. 3. Mai 2016.
  27. heise online: Großbritannien: Google-Tochter DeepMind darf Millionen Patientendaten auswerten.
  28. Datenexperten warnen: Elektronische Gesundheitskarte völlig ungeeignet für geplante Funktion - Gesundheit. 4. Mai 2016.