Diskussion:Tensor Processing Unit

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Formulierung[Quelltext bearbeiten]

"Sie werden u. a. in der Software-Sammlung TensorFlow[2] von Google verwendet" Wie kann ein Hardwarechip in einer Software benutzt werden? Ist vermutlich unglücklich formuliert.--Bomberzocker (Diskussion) 17:26, 27. Jan. 2017 (CET)Beantworten

Name ist nicht TensorFlow Processing Unit[Quelltext bearbeiten]

Der Name ist Tensor Processing Unit. Ich weiß allerdings nicht wie man den Titel eines Artikels ändert. Siehe zum Beispiel https://arxiv.org/abs/1704.04760 oder hier: https://cloud.google.com/blog/products/gcp/google-supercharges-machine-learning-tasks-with-custom-chip

Erledigt (gibts unter "Mehr") --Alexander.stohr (Diskussion) 14:28, 19. Mär. 2019 (CET)Beantworten

Boards zur Programmierung, Evaluierung und Nutzung[Quelltext bearbeiten]

siehe hier - Board mit i.MX8 und viel I/Os - Board nur mit einer TPU und USB-C. --Alexander.stohr (Diskussion) 14:30, 19. Mär. 2019 (CET)Beantworten

Tensor - was ist das?[Quelltext bearbeiten]

Die Bedeutung von Tensor (Begriffsklärung) sollte in der Einleitung des Artikels mit einem kurzen Satz angerissen werden. --Gunnar (Diskussion) 16:52, 30. Apr. 2020 (CEST)Beantworten


Geschichte: Was ist jetzt bei TPU neu? In welche Richtung muss man da schauen? Matrix Multiplikation in mehreren Dimensionen führt doch zu ForEach oder flach-machen einiger Dimensionen und dann Aufruf der Kern-Matrix Multiplikationsroutine?[Quelltext bearbeiten]

https://www.lrz.de/wir/newsletter/01-archiv/rundschreiben/1994-10/

SNI-Präsentation SYNAPSE-1 Die Firma Siemens Nixdorf Informationssysteme AG Muenchen stellt die Hardware- und Software-Architektur des Neurocomputers SYNAPSE-1 und seine Anwendungsmoeglichkeiten auf einer Veranstaltung vor:


Die Struktur neuronaler Netze unterscheidet sich stark von der Ar- chitektur heutiger Computersysteme. Anstelle von sequentieller Ver- arbeitung durch einen hoch komplexen Prozessor steht die massiv parallele, adaptive und nicht-lineare Verarbeitung von Signalen durch relativ einfache Prozessoren (die Neuronen) im Vordergrund. Dieser Unterschied bewirkt auf konventionellen Rechnern sehr hohe Rechenzei- ten; insbesondere die aufwendige Simulation des Lernprozesses verhin- dert die effiziente Entwicklung von neuronalen Anwendungen.

Andererseits gewinnen Anwendungen neuronaler Netze in Bereichen wie z.B. Bilderkennung, Spracherkennung oder Loesung von komplexen Opti- mierungsaufgaben in vielen wissenschaftlichen und technischen Diszi- plinen zunehmend an Bedeutung.

Mit SYNAPSE-1 wurde ein Neurocomputer eingefuehrt, der dieses Dilemma mit Hilfe spezialisierter Hardware loest. Die Leistung dieses Rechners liegt fuer neuronale Anwendungen um mehrere Groessenordnungen ueber der einer Workstation. Der zur Zeit schnellste verfuegbare Neurocompu- ter bietet damit Supercomputer-Leistung zum Preis einer High-End-Work- station. (nicht signierter Beitrag von Arnero (Diskussion | Beiträge) 12:26, 28. Mär. 2022 (CEST))Beantworten