Pepper (Roboter)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Pepper

Pepper ist ein humanoider Roboter, der darauf programmiert ist, Menschen und deren Mimik und Gestik zu analysieren und auf diese Emotionszustände entsprechend zu reagieren. Er wurde gemeinschaftlich von dem französischen Unternehmen Aldebaran Robotics SAS und dem japanischen Telekommunikations- und Medienkonzern SoftBank Mobile Corp. entwickelt und ist als „Roboter-Gefährte“ (companion robot) und „persönlicher Roboter“ (personal robot) konzipiert, der aber vorerst seinen Einsatz in Verkaufsräumen, hinter Empfangstischen und in den Bereichen Erziehung und Gesundheitswesen haben soll.

Konzept[Bearbeiten | Quelltext bearbeiten]

Im Gegensatz zu Robotern, die bei der Fabrikation eingesetzt werden, Routineaufgaben erledigen oder als reines Spielzeug dienen, ist Pepper als informativer und kommunikativer „Roboter-Gefährte“ (companion robot)[1][2] konzipiert. Sein Äußeres – Größe eines Kindes, runder Kopf mit überproportional großen Augen in einem „niedlichen Gesicht“[3] und die Sprechweise in hoher kindlicher Stimmlage[4] – folgt dabei dem ästhetische Konzept von „kawaii“ (jap. 可愛い, etwa ‚liebenswert‘, ‚süß‘, ‚niedlich‘, ‚kindlich‘ oder ‚attraktiv‘).[5]

Langfristig ist das Konzept auf den „persönlichen Roboter“ (personal robot)[6] ausgerichtet; kurzfristig ist vorerst Einsatz in Verkaufsräumen vorgesehen.

Marketing, Kollaborationen und Einsatz von Pepper[Bearbeiten | Quelltext bearbeiten]

Entwicklung und Einführung[Bearbeiten | Quelltext bearbeiten]

Pepper wurde gemeinschaftlich von dem französischen Unternehmen Aldebaran Robotics SAS und dem japanischen Telekommunikations- und Medienkonzern SoftBank Mobile Corp. entwickelt. Bereits 2012 hatte SoftBank 78,5 % der Anteile an Aldebaran erworben.[7] Mittlerweile wurde die Firma Aldebaran mit Sitz in Paris vollständig in Softbank Robotics umfirmiert, was den Übernahmevorgang durch die japanische Softbank Group abschließt.[8]

Die Vorstellung des „ersten persönlichen, zu Emotionen fähigen Roboters der Welt“ (world's first personal robot with emotions),[6] erfolgte am 5. Juni 2014 in Urayasu, einem Vorort von Tokio. Das „Erwachen von Pepper“ (Pepper's wake up)[9], wurde dabei auf der Bühne effektvoll und mit emotionalen Effekten umgesetzt.[10]

Marketing und Erstverkauf[Bearbeiten | Quelltext bearbeiten]

Pepper in einem Softbank-Laden in Akihabara, Japan (2014)

Fumihide Tomizawa, Direktor von SoftBank Robotics Corp.,[11] führte aus, dass man Pepper-Einheiten in den Verkaufsräumen von SoftBank Mobile zur Unterhaltung und Information der Kunden beschäftigen wolle. Die Software der Maschine solle dabei den Umgang mit Kunden lernen und man wolle auf diese Weise Erfahrungen für zukünftige Einsatzmöglichkeiten sammeln.[12][6][13] „Unsere Vorstellung ist, dass Pepper in Verkaufsräumen, hinter Empfangstischen und im Umfeld von Erziehung und Gesundheitswesen seinen Einsatz findet.“[14]

Etwa ein Jahr nach der Vorstellung von Pepper wurde am 3. Juli 2015 bekanntgegeben, dass 1000 Pepper-Einheiten zu einem Preis von je 198.000 Yen (etwa 1450 Euro) zum Verkauf standen.[15][16] Weiterhin war ein monatlicher Betrag von 14,800 Yen (etwa 110 Euro) für Zusatzleistungen wie konstant verbesserte Spracherkennung sowie Zugang zu neuer Anwendungssoftware erforderlich.[17] Heutzutage liegt der standardisierte Preis zwischen 17.000 - 20.000€ (netto) in Abhängigkeit des Service-Angebots.[18]

Am 30. Juli, 2015 verkündete SoftBank Robotics die Annahme von Bestellungen von Pepper ausschließlich für Unternehmen (‘Pepper for Biz’; Auslieferung im Oktober 2015)[19] und einen Tag später folgte die Pressemitteilung, dass alle 1000 Einheiten innerhalb von einer Minute bestellt und verkauft worden waren.[20]

Am 24. Mai 2016 wurde Pepper bei der Messe Innorobo der Öffentlichkeit vorgestellt. In Deutschland und Österreich ist Pepper seitdem für Einsatzmöglichkeiten im B2B-Bereich erhältlich.

Applikationen und Allianzen[Bearbeiten | Quelltext bearbeiten]

Pepper wird mit einer Grundausstattung an Applikationen ausgeliefert, doch allein damit ist Pepper praktisch nicht einsetzbar. Für eine praxisbezogene Anwendung bedarf es einer eigens dafür entwickelten Software. Dafür hat Softbank das Interface für Applikationsprogramme veröffentlicht, so dass unabhängige Firmen und Programmierer zusätzliche Applikationen für Pepper entwickeln können. Bereits im Februar 2015 erhielten 300 Entwickler je eine Pepper-Einheit, um dafür neue Applikationen zu entwickeln.[16] Einige Unternehmen bieten hierfür Gesamtlösungen an und unterstützen bei der Integration in bestehende Systeme. So kann Pepper z. B. während der Beratung eines Kunden direkt aus dem Warenwirtschaftssystem den aktuellen Warenbestand abrufen oder über externe Indoor-Navigationssysteme den Standort von Produkten bestimmen und dem Kunden damit den Weg durch das Geschäft zeigen.

Der US-Zweig von Aldebaran begann eine Zusammenarbeit mit IBM, um Pepper die Fähigkeit zu verleihen, über die Watson-Plattform Rezepte vorzuschlagen.[5]

Im Juni 2015 gab SoftBank Corp. bekannt, dass man sich mit zwei chinesischen Unternehmen, Foxconn Technology (Herstellung) und der Handels- und Kommunikationsplattform Alibaba (Verkauf), auf ein Gemeinschaftsunternehmen geeinigt habe, um Pepper weltweit zu verkaufen.[21]

Pepper und Produktpolitik[Bearbeiten | Quelltext bearbeiten]

Ende Oktober 2014 erklärte Nestlé, im Rahmen von Produktpolitik und Markenbindung (brand engagement) ab Dezember Pepper in 20 Ladengeschäften in Japan einzusetzen, um Kaffeeautomaten zu verkaufen. Der Einsatz von 1000 weiteren Einheiten sei geplant.[22][23] Seit Spätsommer 2016 wird Pepper auch in Europa verkauft. An der TH Wildau ist geplant, den Roboter in der Bibliothek einzusetzen.[24]

Design und technische Details[Bearbeiten | Quelltext bearbeiten]

Kopf und Arme des etwa 1,20 Meter großen und 28 Kilogramm schweren humanoiden Roboters Pepper erinnern an Nao, ein früheres Produkt von Aldebaran. In Peppers Kopf befinden sich vier Mikrofone, zwei HD-Kameras (eine an Stelle des Mundes, eine auf der Stirn) und ein 3D-Abstandssensor (hinter den Augen). Im Torso befindet sich ein positionstabilisierender Gyrosensor und der Kopf und die fünffingerigen Hände verfügen über Berührungssensoren. Die Basis („Bein/Fußbereich“) enthält zwei Sonarsensoren, sechs Laserscanner, drei Stoßfängersensoren und einen weiteren Gyrosensor.[25]

Als Betriebssystem wird NAOqi OS verwendet. Versorgt wird Pepper durch eine Lithium-Ionen-Batterie (30 Amperestunden / 795 Wattstunden), die etwa 12 Stunden Autonomie erlaubt. Die Touchscreen hat einen Durchmesser von 10,1 Zoll (25,7 Zentimeter). Pepper verfügt über Wi-Fi (IEEE 802.11 a/b/g/n, 2.4 GHz/5 GHz) und Ethernet (x1, 10/100/1000 base T) und kann selbständig im Internet nach Daten suchen.

Eine unabhängige Analyse von Peppers Hardware wurde von der Nikkei Robotics News Crew durchgeführt.[26] Im Innern von Pepper befinden sich kompartimentartige Verstrebungen, die dem Körper Stabilität verleihen und mehrere Ventilatoren sorgen für Kühlung der Motoren und der Intel-Atom-CPU, die sich in seinem Kopfteil befindet. Beweglichkeit in der Hüfte wird durch zwei breite Gummibänder stabilisiert.

Bewegungsmodule[Bearbeiten | Quelltext bearbeiten]

Für die Beweglichkeit sorgen 20 Motoren: Pepper kann sich auf flachem Boden mittels dreier, im Fußteil befindlicher und verdeckter Allseitenräder mit maximal 3 km/h bewegen. Die Stellung des Kopfes kann durch zwei Motoren verändert werden, ebenso die Schultern; je ein Motor steuert das Handgelenk und die fünffingerige Hand, zwei Motoren sorgen für Beweglichkeit in der Hüfte und einer erlaubt Beweglichkeit im Unterkniebereich. Die Hände können ein maximales Gewicht von 500 Gramm halten und tragen. Die erzeugten Bewegungen sind fließend und wirken lebensecht.

Analyse von Gesprächspartnern und darauf folgende Reaktionen[Bearbeiten | Quelltext bearbeiten]

Kopfbereich ohne Mimik

Durch Verwendung von unterschiedlichen Sensoren und die entsprechende Software kann Pepper durch Gesichtserkennung individuelle Personen identifizieren und ist in der Lage, durch eine grobe Analyse von Mimik und Gestik, sowie durch akustische Analyse von Wortwahl und Lautstärke der Stimme emotionale Grundstimmungen zu erkennen (affective computing, cognitive computing).[27] Zusätzlich ist er darauf programmiert, aufgrund der Analyseresultate dieser emotionalen Zustände entsprechend auf sein menschliches Gegenüber zu reagieren.

Da Pepper selber über kein Mienenspiel verfügt, wurden andere Lösungen gefunden: Der helle Bereich um die Pupille seiner Augen kann durch LEDs je nach Situation verschiedene Farben – rosa, blau, grün, weiß – annehmen. Durch eine hell/dunkel/hell-Abfolge wird beispielsweise der Effekt des Lidschlags erreicht. Zusätzlich verfügt Pepper über ein Repertoire an Gesten und Körperhaltungen, das entsprechend den Analysen des Inputs verwendet wird, wobei auch kulturelle Unterschiede, beispielsweise für Japan oder die Vereinigten Staaten, berücksichtigt werden können.[28][5] Schließlich kann auch das Tablet vor seiner Brust bildlich zur Darstellungen von Peppers „emotionalem Zustand“ beitragen.[29]

Wird im Raum ein Gespräch wahrgenommen, bewegt sich Pepper darauf zu; er kann derzeit in vier Sprachen (Englisch, Französisch, Japanisch und Spanisch) kommunizieren; weitere Sprachapplikationen sind geplant. Bei Fragen, die durch Datensuche beantwortet werden können, kann sich Pepper selbständig mit dem Internet verbinden.

Sicherheitsvorkehrungen[Bearbeiten | Quelltext bearbeiten]

Um Transportschäden zu vermeiden, sind die beweglichen Teile von Pepper durch mehrfach zu verwendende Plastikstecker fixiert. Nach der Inbetriebnahme vermeiden Abstandssensoren, dass Pepper mit Personen zusammenstößt. Die Außenhaut ist aus Polyurethan, gibt leicht nach und hat keine scharfen Kanten. Stabilisatoren um Brust- und Beinbereich sollen ein Umfallen von Pepper vermeiden; fällt unerwarteterweise die Energieversorgung aus, verhindert eine Blockade, dass Pepper umfällt. Nähert sich die Energieversorgung dem Ende, ist Pepper in der Lage, sich zum Ladegerät hinzubewegen. Normalerweise wird die Verbindung zum Aufladen manuell vorgenommen, es gibt aber auch eine zusätzliche Applikation, die es Pepper erlaubt, sich eigenständig aufzuladen. Schließlich gibt es einen roten Knopf – im Nackenbereich unter einer flexiblen Kunststoffabdeckung – mit dem eine Notabschaltung vorgenommen werden kann.[30]

Filmische Dokumentationen[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise und Anmerkungen[Bearbeiten | Quelltext bearbeiten]

  1. Judith Markowitz: Robots that Talk and Listen: Technology and Social Impact.. De Gruyter, 1. Januar 2015, ISBN 978-1-61451-440-4, S. 41.
  2. Who is Pepper? In der Selbstdarstellung von Adebaran soll Pepper als „geselliger Begleiter“ (social companion) dienen, ist also ein Roboter, der entworfen wurde, „um mit Menschen zu leben“ (robot designed to live with humans), ihnen „Wohlgefühl“ zu vermitteln (the well being of humans) und der sonst keine weiteren (Arbeits-, Reinigungs- etc.) Funktionen hat.
  3. Antonio Villas-Boas: The next generation of Siri-like assistants will be robots living in your home, Business Insider UK, 22. Juni 2015; abgerufen am 26. September 2015.
  4. Madison Park: Is this the world's first emo robot?, CNN, 6. Juni 2015; abgerufen am 26. September 2015.
  5. a b c Will Knight: A Japanese Robot Is Learning the American Way. Developed for cute-centric Japan, a robot called Pepper is getting a personality adjustment for its launch in the United States., MIT Technology Review, 16. September 2015; abgerufen am 28. September 2015.
  6. a b c Sam Byford: SoftBank announces emotional robots to staff its stores and watch your baby, theverge.com, 11. Juni 2014; abgerufen am 1. Oktober 2015.
  7. Martin Kölling: Sprint-Besitzer Masayochi Son. Visionär mit Gefühl, in: Handelsblatt, Nr. 108 vom 6. bis 9. Juni 2014, S. 22.
  8. Legal Notices. In: SoftBank Robotics. Abgerufen am 8. Juni 2016.
  9. Video der Präsentation
  10. Arnaud Vaulerin: Pepper vient mettre son grain de sel dans les familles japonaises, Libération, 19. Juni 2015; abgerufen am 1. Oktober 2015.
  11. SoftBank Robotics wurde am 24. Juli 2014 zur Vermarktung von Pepper und weiteren Robotern gegründet.
  12. meu: Haushaltsroboter aus Japan: Pepper soll den US-Markt erobern, Spiegel-Online, 3. September 2014; abgerufen am 30. September 2015.
  13. Kazuaki Nagata: SoftBank unveils 'historic' robot – Cloud-linked machine reads emotions, can 'learn,' company says. In: The Japan Times, 5. Juni 2014. Abgerufen am 11. Juni 2014. 
  14. Robots at Work: SoftBank Aims to Bring Pepper to Stores, BloombergBusiness, 30. Juni 2014; abgerufen am 30. September 2015.
  15. Dieser Verkaufspreis liegt derzeit unter den Produktionskosten für den Roboter.
  16. a b SoftBank met 300 robots Pepper à disposition des développeurs, Le Monde, 23. Februar 2015; abgerufen am 1. Oktober 2015.
  17. SoftBank to Sell Pepper Robot to Consumers, BloombergBusiness, 18. Juni 2015; abgerufen am 30. September 2015.
  18. Home. In: Humanizing Technologies - Pepper der humanoide Roboter in DE & AT. (humanizing-technologies.com [abgerufen am 17. November 2017]).
  19. SoftBank to Take Orders for Pepper Enterprise Model — ‘Pepper for Biz’ — Starting October 1, SoftBank Robotics Corp., 30. Juli 2015; abgerufen am 30. September 2015.
  20. 1,000 ‘Pepper’ Units for July Sell Out in a Minute, SoftBank Robotics Corp., 31. Juli 2015; abgerufen am 30. September 2015.
  21. Chris Gallagher uand Stephen Coates: SoftBank teams up with Alibaba, Foxconn to sell Pepper robot, Reuters, 18. Juni 2015; abgerufen am 1. Oktober 2015.
  22. Nestlé to use humanoid robot to sell Nescafé in Japan, Pressemitteilung von Nestlé, 29. October 2014; abgerufen am 1. Oktober 2015.
  23. Patrik Berger: Nestlé ersetzt Verkäufer durch Roboter, Blick, 30. Oktober 2014; abgerufen am 2. Oktober 2015.
  24. Susanne Hakenjos: - "Hallo, ich bin der neue Mitarbeiter der TH Wildau", RBB Online, 11. Februar 2017
  25. Aldebaran: More about Pepper; abgerufen am 1. Oktober 2015.
  26. "Pepper" Humanoid Robot Teardown (1), "Pepper" Humanoid Robot Teardown (2), "Pepper" Humanoid Robot Teardown (3), "Pepper" Humanoid Robot Teardown (4), Nikkei Technology, 1. - 5. Juli 2015; abgerufen am 29. September 2015.
  27. Sharon Oviatt and Philip R. Cohen: The Paradigm Shift to Multimodality in Contemporary Computer Interfaces.. Morgan & Claypool Publishers, 1. April 2015, ISBN 978-1-62705-752-3, S. 144.
  28. Mat Smith: Are you ready for your first home robot? Meet Pepper, Engadget, 12. Juni 2015; abgerufen am 1. Oktober 2015.
  29. Hannah Feiler: Künstliche Gefühle - Wenn der Roboter emotional wird, Frankfurter Allgemeine Zeitung, 19. Juni 2015; abgerufen am 1. Oktober 2015.
  30. Darstellung der Nikkei Robotics News Crew; abgerufen am 29. September 2015.