Diskussion:Künstliche Intelligenz

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Künstliche Intelligenz“ zu besprechen.

Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen, und unterschreibe deinen Beitrag bitte mit Signatur und Zeitstempel oder --~~~~.

Hinweise

Automatische Archivierung
Auf dieser Seite werden Abschnitte montags automatisch archiviert, deren jüngster Beitrag mehr als 56 Tage zurückliegt und die mindestens 3 signierte Beiträge enthalten. Um die Diskussionsseite nicht komplett zu leeren, verbleiben mindestens 7 Abschnitte. Die Archivübersicht befindet sich unter Archiv.
Automatische Archivierung
Auf dieser Seite werden Abschnitte automatisch archiviert, die seit 56 Tagen mit dem Baustein {{Erledigt|1=~~~~}} versehen sind.

Newsticker[Quelltext bearbeiten]

Dieser Baustein verhindert die automatische Archivierung dieses Abschnitts und seiner Unterabschnitte.

in diesem Abschnitt können Meldungen zum Thema gesammelt werden, die für den Artikel selbst nicht relevant sind oder dort unverhältnismäßig viel Raum beanspruchen würden. Den Grundstock bildet diese Streichung von TheRandomIP. -- Leif Czerny 19:49, 30. Nov. 2018 (CET)

Zum Öffnen auf "Ausklappen" klicken!

Im November 2017 stellten Wissenschaftler der Universität Edinburgh eine von ihnen trainierte KI vor, die in der Lage ist, bei einem Fernsehkrimi den Mörder mit hoher Wahrscheinlichkeit noch vor der Auflösung vorauszusagen. Dabei haben die Forscher die KI anhand von 39 Folgen der Fernsehserie "CSI: Las Vegas" trainiert. Diese Fernsehserie hat 337 Folgen. Ab der 39. Folge war es der KI möglich, den Täter relativ häufig vorauszusagen und mit jeder weiteren Folge wurde die Treffsicherheit der KI höher. Am Ende lag die Treffsicherheit bei 60 Prozent nachdem 90 Prozent einer Episode von der KI "geschaut" wurde.[1]

Am 28. August 2017 wurde ein maschineller Übersetzer namens DeepL auf Basis künstlicher neuronaler Netze von einem Kölner Start-Up online gestellt, der auf der gesammelten Datenbank von Linguee trainiert wurde. Der neue Dienst soll in Blindtests die Angebote der Konkurrenz u. a. von Google, Microsoft und Facebook übertreffen.[2][3]

Im November 2017 stellte Boston Dynamics ein neues Video zur aktuellen Entwicklung ihres humanoiden Roboters Atlas ins Internet. Seit 2016 kann Atlas gehen, Türen öffnen, Kisten aufheben und in Regale einsortieren sowie nach dem Umfallen alleine wieder aufstehen. Seit 2017 kann Atlas nunmehr athletisch von Kiste zu Kiste springen, um 180 Grad Sprünge und einen Rückwärtssalto durchführen.[4][5]

Im Dezember 2017 stellte Google eine KI mit Namen AutoML vor, die eigenständig KIs kreiert, die dann wiederum leistungsfähiger sind, als KIs, die von Menschen auf dem speziellen Gebiet kreiert wurden.[6]

KIs können Ende 2017 Videos von einer Tagszene in eine Nachtszene umrechnen, oder von einer Sommerlandschaft in eine Winterlandschaft verwandeln und umgekehrt, ein Video von einem Sonnentag in einen Regentag verwandeln, oder eine Katze in einem Video in eine Großkatze umrechnen usw. Weiterhin können KIs menschliche Gesichter entwickeln, die es gar nicht gibt, die aber menschlich aussehen.[7]

Ein Programmierer demonstrierte Ende 2017 die Produktion eines Fake-Videos mit einfachen und kostenlosen Mitteln. Dazu nahm er ein Pornovideo und die Gesichter berühmter Frauen u. a. Gal Gadot. Mit Hilfe einer KI legte er dann das Gesicht der berühmten Schauspielerinnen über das Gesicht der Pornodarstellerin, so dass ein glaubwürdiges Video entstand. Dabei verwendete der Programmierer einfachste Mittel die im Internet frei verfügbar sind und deren Handhabung leicht erlernbar sind.[8] Die Techniken wurden bereits 2016 von Wissenschaftlern des Max-Planck-Instituts für Informatik in Online-Videos demonstriert.[9] Auf Basis dieser Techniken hat ein weiterer Entwickler im Januar 2018 die sog. FakeApp entwickelt, so dass nun mittlerweile jedermann mit wenig Technikverständnis in einem beliebigen Video ein sog. Face Swap durchführen kann, was sich großer Beliebtheit erfreut. Die Qualität dieser veränderten Videos wird immer besser und ist teilweise auf dem Niveau von teuren Hollywood-Produktionen angekommen. Video als Beweismaterial verliert damit zunehmend an Bedeutung.[10][11][12]

Forscher der Universität von Maryland sowie vom Dartmouth College haben eine KI entwickelt, die mit 92 prozentiger Wahrscheinlichkeit an der Stimme und dem Gesichtsausdruck eines Menschen erkennen kann, ob dieser lügt; vgl. Lügendetektor. Die KI wurde mit 104 Videos trainiert, die Personen zeigen, die vor Gericht sowohl die Wahrheit als auch die Unwahrheit sagen. Die KI lernte so, minimale Änderungen im Gesichtsausdruck und der Stimme zu erkennen, um so den Wahrheitsgehalt des Gesagten zu deuten. Das System könne durch bessere Audiodaten und mehr Videomaterial noch stark verbessert werden.[13]

Forscher der Stanford Universität entwickelten eine KI, die anhand der Bilder von Google Street View (d. h. Bilder von einem Wohnviertel) das Wahlverhalten, den Bildungsgrad und die ethnische Zusammensetzung von Menschen in einem bestimmten Wohngebiet ermitteln kann. Ein wesentliches Erkennungsmerkmal für die KI sind die Autos, die in einem Wohngebiet geparkt sind. Nicht ermitteln konnte die KI bislang den Anteil der Kinder in dem Wohnviertel und die Zuordnung zu dominanten Wirtschaftssektoren. Die Erhebung der Daten ist deutlich kostengünstiger als bei Umfragen.[14]

Die KI NIMA, entwickelt von Google, kann Bilder ästhetisch bewerten, d. h. erkennen, ob Menschen ein Bild schön oder nicht schön finden. Dabei trainierte die KI mit Bildern, die von 200 Menschen auf einer Skala von 1 bis 10 bewertet wurden. Danach konnte die KI mit hoher Treffsicherheit erkennen, mit welchem Wert die Menschen ein Bild einstufen werden.[15]

Das britische Start-up Tractable stellte Anfang Januar 2018 eine KI vor, die mittels Fotos von einem Autoschaden innerhalb von Sekunden einen Kostenvoranschlag für die Reparatur anfertigen kann. Autofahrer müssen zukünftig nur noch Fotos vom Schaden aufnehmen und an die Versicherung übermitteln – der Rest wird dann maschinell erledigt. Die KI wurde mit Millionen Fotos von Autoschäden trainiert. Die Fotos müssen nicht von hoher Qualität sein. In Deutschland gab es im Jahr 2017 mehr als 2,6 Millionen Verkehrsunfälle, die meisten davon Blechschäden.[16]

Bei einem standardisierten Leseverständnistest der Stanford Universität haben KIs erstmals im Januar 2018 besser abgeschnitten als Menschen dies können. Bei dem Test wird ein Text gelesen und danach sehr detaillierte Fragen zum Inhalt des Textes gestellt. Menschen konnten im Maximum bislang 82,304 Prozent der Fragen korrekt beantworten. Eine KI von Alibaba konnte diesen Wert mit 82,44 Prozent übertreffen. Nur wenige Stunden später konnte eine KI von Microsoft den Test mit 82,65 Prozent bestehen. Allerdings je komplexer und mehrdeutiger die Fragen werden, desto mehr Probleme bekommen die KIs. Die KIs sind eher ein exaktes Rechercheinstrument, während ein Mensch das Gelesene in einen größeren Kontext stellen kann.[17][18]

Vier Wissenschaftler der japanischen Universität in Kyoto haben im Januar 2018 eine KI vorgestellt, die aus den gemessenen Gehirnaktivitäten (Magnetresonanzscans) eines Menschen in etwa erkennen kann, welches Bild sich der Mensch gerade ansieht oder sogar nur ausdenkt. Die KI visualisiert die Bilder dann auf einem Bildschirm. Die Bilder sind nicht akkurat, aber Formen und Farben sind schemenhaft erkennbar. Auch Symbole und Buchstaben kann die KI so identifizieren. Die KI wurde über 10 Monate mit drei Probanden und 1000 Bildern, die wiederholt angeschaut wurden, trainiert. Dies stellt erste Ansätze von Telepathie zwischen Mensch und Maschine dar, was für die Maschinensteuerung nützlich sein kann.[19][20]

Microsoft stellte im Januar 2018 eine KI vor, die auf Textvorgaben ein entsprechendes Bild erzeugen kann. So erzeugt die KI z. B. auf die Vorgabe gelber Vogel mit schwarzen Flügeln und kurzem Schnabel ein fotorealistisches Bild mit einem kleinen, gelben Kanarienvogel mit schwarzen Flügeln auf einem Ast sitzend. Der Vogel existiert nicht real, sondern das Bild wurde von der KI erschaffen. Tatsächlich handelt es sich um zwei KIs: die erste erzeugt das Bild, die zweite bewertet, ob das Bild real erscheint. Die erste KI wiederholt den Vorgang so oft, bis die zweite KI das Bild als realistisch akzeptiert. Mit Hilfe einer solchen KI könnte man allein mit einem detaillierten Drehbuch einen Animationsfilm erzeugen. Denkbar wäre der Einsatz auch in der Architektur, wo eine solche KI nach Textvorgabe entsprechende Gebäude zeichnet.[21]

Forscher der Universität Zürich und des Forschungskompetenzzentrums NCCR Robotics haben im Januar 2018 eine KI vorgestellt, die eine Drohne sicher durch eine Stadt führen kann. Die Drohne ist lediglich mit einer einfachen Smartphonekamera bestückt. Die eigentliche Leistung vollbringt die KI, die zwischen statischen und bewegten Objekten unterscheiden kann und der Drohne entsprechend den Weg weist. Die KI schafft es sogar, die Drohne durch Parkhäuser und Büroflure zu steuern, obwohl die KI dafür nicht eigens trainiert wurde. Mögliche Einsatzgebiete wären Paketlieferungen, Überwachungsaufgaben, Rettungseinsätze usw.[22]

Seit Herbst 2017 ist ein Aktienfonds (ETF) auf dem Markt, der von einer KI gesteuert wird. Die KI basiert auf dem IBM Watson und entscheidet komplett eigenständig, in welche Aktien investiert wird. Die KI lernt ständig dazu und setzt keine einprogrammierten Anlageregeln um. War die Performance der KI anfangs noch sehr schlecht, überholt diese im Januar 2018 die Performance von menschlichen Fonds-Managern. Die KI kann im Vergleich zu einem Menschen große Mengen an Daten verarbeiten und in die Analyse einbeziehen, derzeit die Geschäftsdaten von 6000 Unternehmen und über 1 Mio. Finanznachrichten pro Tag. Nach Aussage der Betreiber soll die KI weiter dazulernen und somit die Performance ständig steigern. Der Fond steht auch Privatanlegern offen.[23]

Im Januar 2018 eröffnet Amazon den ersten Laden ohne Kassen. Amazon nennt diese Läden Amazon Go. Der Kunde benötigt einen Account bei Amazon und eine entsprechende Amazon-App auf seinem Smartphone. Beim Betreten des Ladens muss der Kunde sein Smartphone mit der App über einen Scanner halten und kann dann eintreten. Danach wird der Kunde von unzähligen Kameras und KI verfolgt. Jedes Mal, wenn der Kunde dem Regal eine Ware entnimmt, wird die Ware in den virtuellen Warenkorb des Kunden eingebucht. Legt der Kunde die Ware wieder ins Regal zurück, wird die Ware wieder ausgebucht. Beim Verlassen des Ladens wird dem Kunden automatisch der Rechnungsbetrag des Warenkorbs von seinem Amazon-Guthaben-Konto abgebucht. Für den Kunden ergeben sich so keine Wartezeiten mehr an den Kassen. Amazon kann so nun auch die Einkaufsdaten in einem normalen Laden für jeden Kunden erfassen und zudem entfällt Personal.[24]

Wissenschaftler der Alberta Universität haben eventuell im Januar 2018 mit Hilfe einer KI das Voynich-Manuskript entschlüsseln können. Das Manuskript ist 600 Jahre alt. Jahrzehnte lang wurde versucht, den Inhalt des Buches, das in einer Geheimschrift niedergeschrieben ist, zu entschlüsseln. Die KI wurde an Texten in 380 Sprachen trainiert. Glaubte man bislang, bei der Sprache handle es sich um Arabisch, gab die KI an, es sei Hebräisch. Man vermutete, dass es sich um Alphagramme (s. Anagramm) handelt, bei denen die Buchstaben jedes Wortes alphabetisch sortiert werden und Vokale weggelassen werden. Nach Umstellung der Buchstaben, konnten 80 Prozent der Wörter in einem modernen Wörterbuch gefunden werden. Der erste Satz konnte damit in etwa entschlüsselt werden. Nun werden Linguisten, die Althebräisch beherrschen, benötigt, um den gesamten Text entziffern zu können. Die Wissenschaftler wollen nun weitere alte Texte untersuchen, deren Entzifferung bislang nicht gelang.[25] Der Ansatz wurde sowohl von einschlägigen Voynich-Forschern, als auch von einem Team aus Mediävisten, Informatikern und des Hebräisch Kundigen als unbrauchbar verworfen.[26]

Das kanadische Start-Up Lyrebird hat eine KI entwickelt, die innerhalb weniger Minuten erlernen kann, mit jeder beliebigen Stimme zu sprechen. Namensgeber ist der Vogel Leierschwanz, der beliebige Geräusche täuschend echt imitieren kann. Zum Trainieren der KI muss man einen vorgegebenen Text wenige Minuten lang vorlesen. Danach spricht die imitierte Stimme jeden Text, den man in einem Textfeld eingibt. Das funktioniert bislang nur gut in der englischen Sprache.[27][28]

Das deutsche Entwicklerteam Acrai hat eine Maschine mit KI entwickelt, die, an einem Traktor angehängt, auf Feldern automatisch und mechanisch "Unkraut" entfernt. Die KI erkennt das "Unkraut" und dann entfernt die Maschine das "Unkraut" mit einer Art Hacke. Das System soll eine Alternative zu chemischen Unkrautvernichtern sein und so insbesondere im ökologischen Anbau zum Einsatz kommen, um dort Arbeitskräfte einzusparen. Das System wird vorerst als Dienstleistung angeboten, damit Bauern das System ausprobieren können. Das Team erhielt mit seiner Maschine beim TUM IdeAward den dritten Platz.[29]

Das Startup snics aus Wien hat eine App mit KI entwickelt, welche die Energiezufuhr einer Mahlzeit berechnen kann. Dazu muss man nur die Mahlzeit komplett fotografieren. Die KI erkennt die Speisen, gleicht dies mit einer Datenbank ab, um die Nahrungsenergie je Speise zu ermitteln und berechnet daraus die Energiezufuhr anhand von Standardportionen. Die App steht seit Februar 2018 in den App-Stores bereit. Die Treffsicherheit liegt derzeit bei 60 Prozent, wobei weitere 20 Prozent nur leicht daneben liegen. Ernährungswissenschaftler kontrollieren ständig die Arbeit der KI, um so die Treffsicherheit weiter zu steigern.[30]

Das Google Brain Team stellte im Februar 2018 eine KI vor, die aus vorgegebenen Texten die wesentlichen Informationen extrahieren und damit einen Wikipedia-Artikel schreiben kann.[31]

Auf der Münchner Sicherheitskonferenz im Februar 2018 waren autonome Waffen ein zentrales Thema und dabei kleine Drohnen mit KI eigenständig gesteuert, die in großen Schwärmen ausgesendet werden, u. a. Zielpersonen per Gesichtserkennung oder ein sonstiges Ziel orten und dann das Ziel ausschalten u. a. durch Zünden einer Sprengladung in unmittelbarer Nähe des Ziels. Prototypen seien bereits gebaut. Der ehemalige Nato-Generalsekretär Anders Fogh Rasmussen warnte eindringlich vor solchen autonomen Systemen und forderte das Verbot solcher Systeme. Anscheinend soll im Syrien-Krieg erst kürzlich ein derartiger Drohnenangriff vermutlich mit iranischer Hilfe gegen eine russische Einheit eingesetzt worden sein.[32] Bereits Ende 2017 haben Aktivisten in einem Video simuliert, wie ein solcher Angriff von einem autonomen Drohnenschwarm aussehen könnte.[33]

Beim Projekt "Mannheimer Weg 2.0" – eine Zusammenarbeit der Stadt Mannheim, der Mannheimer Polizei und dem Fraunhofer Institut – soll eine KI ab März 2018 die Videos der Überwachungskameras aus dem Stadtzentrum von Mannheim auswerten und einen Alarm auslösen, wenn die KI auf den Bildern eine strafbare Handlung entdeckt. Ein Mitarbeiter der Polizei muss dann manuell das von der KI vorsortierte Bildmaterial sichten und eigenständig Kollegen alarmieren. Bislang mussten Mitarbeiter der Polizei permanent die Videos der Überwachungskameras auf verdächtige Situationen hin beobachten, was für die Mitarbeiter sehr ermüdend und auch personalintensiv war. Die KI durchsucht die Videos in Echtzeit u. a. nach Menschen, die schlagen, liegen, stürzen o.a. rennen usw. In der ersten Phase werden jedoch weiterhin auch Menschen die Videos auswerten, so dass die KI mit Hilfe des Bildmaterials weiter trainiert werden kann.[34]

Auf dem Mobile World Congress in Barcelona im Februar 2018 wurde ein Smartphone mit einer App vorgestellt, das ein Auto steuern kann. Das Smartphone verfügt über einen KI-Chip und wurde an der Windschutzscheibe des Fahrzeugs befestigt. Das Fahrzeug war mit Steuermotoren am Lenkrad und den Pedalen ausgestattet. Allein über die Kamera des Smartphones wurde die Umgebung erkannt und das Fahrzeug vom Smartphone über einen Testparcours geleitet. Die Vorführung diente zur Demonstration der Leistungsstärke des KI-Chip im Smartphone.[35]

Microsoft Research hat im März 2018 eine KI vorgestellt, die von Chinesisch ins Englisch nach eigener Angabe in gleicher Qualität übersetzen kann wie ein professioneller menschlicher Übersetzer. Die Übersetzung von Chinesisch ins Englische gilt als die schwierigste Art der Übersetzung. Nach Microsoft ein historischer Durchbruch, den man selbst bei Microsoft nicht so früh erwartet hätte.[36][37]

Im März 2018 stellte Google eine youtube-App mit KI vor, die in Videos in Echtzeit den Hintergrund im Video austauschen kann. Für diese Technik wurde bislang die aufwändige Greenscreen-Technik benötigt, bei der Personen vor einer grünen Wand agieren müssen, die später durch einen Hintergrund ersetzt wird. Bei der jetzigen Technik ist der Hintergrund egal. Die KI erkennt die Personen oder Gegenstände im Vordergrund und schneidet diese einfach aus dem Video heraus.[38]

Im März 2018 führte Baidu die KI DeepVoice vor, die nur 3,7 Sekunden Tonaufnahme einer Stimme benötigt, um dann mit dieser Stimme jeden vorgegebenen Text sprechen zu können. Die Qualität ist allerdings sehr schlecht. Je mehr Tonaufnahme die KI von einer Stimme hat, um so besser wird das Ergebnis. Vor einem Jahr noch sollen für vergleichbare Ergebnisse noch 30 Minuten Tonaufnahmen einer Stimme notwendig gewesen sein. Ein System von Adobe, das 2016 vorgestellt wurde, benötigte 20 Minuten Trainingsmaterial, erzielte damit jedoch auch ein hochwertiges Ergebnis.[39]

Im Mai 2018 hat Google auf der Entwicklerkonferenz sein System Duplex vorgestellt. Dabei führte die KI einen Anruf bei einem Friseursalon, einem Restaurant usw. durch, um eine Terminvereinbarung durchzuführen. Ziel von Google ist es, die Sprache der KI so natürlich wirken zu lassen, dass der Gegenüber nicht mehr erkennt, dass es sich beim Anrufer um eine Maschine handelt. Dazu werden von der KI u. a. Denkpausen, absichtliche Ungenauigkeiten, 'aha' und 'hmm' usw. eingefügt, wodurch die KI menschlich klingen soll. Kommentatoren empfanden das Ergebnis u. a. erschreckend überzeugend. Das System funktioniert bislang nur in Englischer Sprache.[40][41]

Eine KI wurde von IBM unter dem Namen 'Project Debater' darauf trainiert, mit Menschen zu diskutieren. IBM stellte diese KI im Frühjahr 2018 der Öffentlichkeit vor. Dabei diskutierte die KI mit zwei erfahrenen menschlichen Diskussionspartnern über Themen, von denen die KI davor nichts wusste. Die KI konnte lediglich auf eine 300 Millionen Quellen umfassende Datensammlung zurückgreifen, und musste daraus die Argumente herausfinden. Geübt hatte die KI davor mit anderen Themen. Die KI soll zukünftig bei der Findung schwieriger Entscheidungen behilflich sein.[42]

Das britische Start-Up Wayve hat im Juli 2018 eine KI vorgestellt, die innerhalb von 20 Minuten in einfacher Form das Autofahren erlernen kann. Das Start-Up wurde von zwei Doktoren der KI der Cambridge Universität gegründet. Statt vieler Sensoren benötigt die KI nur eine Frontkamera und steuert das Lenkrad. Bislang wurde den Autopiloten mühsam die Regeln für das Autofahren einprogrammiert und Millionen von Testkilometern absolviert, um der KI das Autofahren beizubringen. Die jetzt vorgestellte KI ist zuerst ohne Wissen und steuert das Lenkrad zuerst zufällig. Durch das korrigierende Eingreifen eines Testfahrers lernt die KI innerhalb von 20 Minuten eigenständig und ohne menschliches Wissen, wie das Lenkrad zu bedienen ist, um auf der Straße zu bleiben, ähnlich einem Menschen, der Fahrradfahren lernt. Dabei wird auf das gleiche bestärkende Lernverfahren gesetzt, das Deepmind bereits bei AlphaZero eingesetzt hat. Die KI erhält eine höhere Belohnung, je länger das Fahrzeug ohne Eingriff des Testfahrers bleibt. Die KI versucht eine möglichst hohe Belohnung zu erhalten.[43]

Wissenschaftler der Universität von Berkeley, Kalifornien, haben im Sommer 2018 eine KI entwickelt, mit der man in Videos die Tanzbewegungen einer Quellpersonen auf eine Zielperson übertragen kann. Dazu überträgt die KI zuerst die Tanzbewegungen der Quellperson auf eine Art Strichmännchen. Diese Bewegungen werden dann in einem zweiten Schritt auf die Zielperson übertragen. Dann wird das Ergebnis von der KI auf Glaubwürdigkeit überprüft und gegebenenfalls der letzte Schritt wiederholt. Zukünftig sollen beliebige Bewegungen einer Quellperson im Video auf eine Zielperson in einem Video übertragbar sein. Video als Beweismaterial verliert damit zunehmend an Bedeutung.[44]

Mit der App TapTapSee können Blinde die Umgebung mit ihrem Smartphone fotografieren. Das Foto wird an eine zentrale KI übermittelt, welche das Bild analysiert und einen Text erstellt, was auf dem Foto zu sehen ist (sog. tagging). Dieser Text geht dann zurück an das Smartphone des Benutzer. Daraufhin sagt eine Stimme im Smartphone, was auf dem Bild zu sehen ist. So können Blinde etwa die Farbe eines Kleidungsstückes herausfinden. Die App ist kostenlos, so dass man diese Technik selbst austesten kann.[45]

Einzelnachweise zum Newsticker[Quelltext bearbeiten]

  1. Künstliche Intelligenz: Wenn der Computer den Mörder errät faz.net vom 23. November 2017
  2. heise online: Maschinelle Übersetzer: DeepL macht Google Translate Konkurrenz. Abgerufen am 30. August 2017.
  3. Online-Übersetzer im Vergleich "Ich will den Hals langsam atmen" 2017
  4. humanoider Roboter Atlas, 2016
  5. humanoider Roboter, 2017
  6. Künstliche Intelligenz: Google-KI AutoML kreiert neue, effizientere KI, vrodo.de vom 4. Dezember 2017
  7. Diese KI erzeugt Bilder, die echt aussehen – es aber nicht sind, gruenderszene.de vom 12. Dezember 2017
  8. Künstliche Intelligenz generiert glaubwürdige Fake-Pornos von Promis, vrodo.de vom 12. Dezember 2017
  9. Face2Face: Real-time Face Capture and Reenactment of RGB Videos, mpi-inf.mpg.de von 2016
  10. Auf Fake News folgt Fake Porn, zeit.de vom 26. Januar 2018
  11. Jetzt also „Fake Porn“, faz.net vom 26. Januar 2018
  12. FakeApp bei Reddit: täuschend echten Promi-Pornos fluten das Netz, news.de vom 26. Januar 2018
  13. Vor Gericht: Künstliche Intelligenz soll Lügner entlarven, futurezone.de vom 25. Dezember 2017
  14. Künstliche Intelligenz erkennt am Auto das Wahlverhalten, futurezone.de vom 22. Dezember 2017
  15. Google: KI kann jetzt vorhersagen, ob Menschen ein Bild schön finden oder nicht, t3n.de vom 22. Dezember 2017
  16. Der vollautomatische Kfz-Sachverständige, faz.net vom 5. Januar 2018
  17. Daniel Berger: KI kann besser lesen als Menschen. heise online, 16. Januar 2018, abgerufen am 17. Januar 2018 (deutsch).
  18. Künstliche Intelligenz antwortet erstmals präziser als der Mensch, vrodo.de vom 16. Januar 2018
  19. Künstliche Intelligenz: KI-System sieht Bilder im Gehirn und rekonstruiert sie, vrodo.de vom 12. Januar 2018
  20. Japanische KI macht Gedanken sichtbar, futurezone.de vom 16. Januar 2018
  21. Microsofts Bot zeichnet auf Geheiß alles, golem.de vom 22. Januar 2018
  22. So kommen Drohnen sicher durch die Stadt, science.orf.at vom 23. Januar 2018
  23. Diese Aktien hat der Supercomputer, godmode-trader.de vom 26. Januar 2018
  24. Amazon eröffnet ersten Laden ohne Kasse, wired.de vom 22. Januar 2018
  25. KI entschlüsselt Teile von 600 Jahre altem Rätsel, futurezone vom 30. Januar 2018
  26. [1]
  27. Diese Software imitiert jede Stimme, spiegel.de vom 28. Januar 2018
  28. Eine Maschine spricht mit meiner Stimme, wdr.de vom 1. Februar 2018
  29. Wie TU-Studenten aus Ideen marktreife Produkte machen, sueddeutsche.de vom 11. Februar 2018
  30. Diät-App erkennt Kalorienanzahl fotografierter Lebensmittel, futurezone.de vom 14. Februar 2018
  31. Künstliche Intelligenz: Google Brain verfasst selbstständig Wikipedia-Artikel, heise.de vom 19. Februar 2018
  32. Nato-Pläne zu autonomen Waffen : Angriff der Killerdrohnen, faz.net vom 19. Februar 2018
  33. Aktivisten zeigen in verstörendem Video nahe Killerroboter-Zukunft, winfuture.de vom 13. November 2017
  34. Überwachungskameras erkennen Straftaten von selbst: Neues Projekt in Mannheim, de.sputniknews.com vom 19. Februar 2018
  35. Smartphone steuert ein Auto, fm1today.ch vom 27. Februar 2018
  36. KI übersetzt so gut wie ein Mensch, golem.de vom 16. März 2018
  37. “Historischer Durchbruch” – KI übersetzt Chinesisch so gut wie ein Mensch, vrodo.de vom 15. März 2018
  38. YouTube erprobt Live-Videobearbeitung mit künstlicher Intelligenz , heise.de vom 16. März 2018
  39. Künstliche Intelligenz: Algorithmus klont Stimme in nur 3,7 Sekunden, vrodo.de vom 16. März 2018
  40. Google Duplex ist gruselig gut, spiegel.de vom 9. Mai 2018
  41. Google Duplex: 8 Fragen & Antworten zur Sprach-KI, turn-on.de vom 1. Juni 2018
  42. Maschinenhirn diskutiert mit Mensch: Künstliche Intelligenz tritt erstmals öffentlich gegen Debattier-Experten an, scinexx.de vom 20. Juni 2018
  43. Autonomes Fahren: Künstliche Intelligenz soll das Lenkrad übernehmen, vrodo.de vom 8. Juli 2018
  44. Künstliche Intelligenz bringt jedem perfekt Tanzen bei – zumindest im Video, mobilegeeks.de vom 29. August 2018
  45. Eine Gratisapp zeigt Blinden die Welt chip.de


Redundanzen; z.B. Basketball[Quelltext bearbeiten]

In diesem schon recht langen Artikel wurden jüngst durch @Wega14: Abschnitte eingestellt, die sich z.B. hier auch im Artikel Geschichte_der_künstlichen_Intelligenz finden. Wenn das so weiter geht bekommen wir dutzende Redundanzen. Ich würde deshalb vorgschlagen alle geschichtsträchtigen Fakten in den Geschichtsartikel auszulagern.--Lectorium (Diskussion) 03:53, 17. Mär. 2018 (CET)

Emotionale Intelligenz[Quelltext bearbeiten]

Der Satz: "Das menschliche Gehirn wird dazu u. a. stark von Hormonen, also chemischen Prozessen, gesteuert. Bislang kann man aber nur die elektrischen Prozesse (neuronalen Netze) simulieren, nicht die chemischen (Hormone)." beschreibt zwar das biologische System zutreffend. Er ist aber dennoch irreführend, weil es keineswegs zwingend ist, die Sentiment-Analyse mit chemischen Mitteln zu betreiben. Tatsächlich wird es ja auch gar nicht so gemacht.

Ich habe den Satz deshalb heraus genommen.

--MRewald (Diskussion) 14:56, 27. Aug. 2018 (CEST)

Interessante Links?[Quelltext bearbeiten]

Statt sie in den Weblinks einzubauen, (erstmal?) hier:

Sicherheit von KI[Quelltext bearbeiten]

Vorschlag für wichtigen Abschnitt; es passiert hier sehr viel, siehe z.B. https://intelligence.org/why-ai-safety/ oder https://www.gov.uk/guidance/understanding-artificial-intelligence-ethics-and-safety oder https://80000hours.org/podcast/episodes/pushmeet-kohli-deepmind-safety-research/ --LS (Diskussion) 14:58, 16. Aug. 2019 (CEST)

Verständlichkeit[Quelltext bearbeiten]

Einiges im Artikel ist unverständlich...

probabilistische Information[Quelltext bearbeiten]

Was ist probabilistische Information? Bitte im Artikel durch einen allgemeinverständlichen Begriff ersetzen oder zumindest verständlich beschreiben. Gruss, --Markus (Diskussion) 23:13, 16. Sep. 2019 (CEST)