Claude Elwood Shannon

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Claude Shannon)
Wechseln zu: Navigation, Suche
Graffiti, Darstellung Claude Shannons, Museum "Demeure du Chaos", Saint-Romain-au-Mont-d'Or, Frankreich, nach einem Foto von 1963

Claude Elwood Shannon (* 30. April 1916 in Petoskey, Michigan; † 24. Februar 2001 in Medford, Massachusetts) war ein amerikanischer Mathematiker und Elektrotechniker. Er gilt als Begründer der Informationstheorie.

Leben[Bearbeiten]

Shannon wuchs in Petoskey, Michigan, auf, welches oft auch als Geburtsort angegeben wird. Sein Vater war Geschäftsmann, seine Mutter Sprachlehrerin deutscher Herkunft. Während seiner High-School-Zeit arbeitete er als Bote für die Western Union.

Er folgte 1932 seiner Schwester Catherine an die University of Michigan. Sie schloss in jenem Jahr das Mathematikstudium ab, und er begann ein Elektrotechnik- und Mathematikstudium. 1936 wechselte er mit einem Abschluss in Mathematik und Elektrotechnik an das MIT. In seiner Abschlussarbeit zum Master in Elektrotechnik (1937), A Symbolic Analysis of Relay and Switching Circuits,[1] benutzte er Boolesche Algebra zur Konstruktion von digitalen Schaltkreisen. Die Arbeit entstand aus der Analyse der Relais-Schaltkreise im Analogrechner Differential Analyzer von Vannevar Bush (Dekan der Ingenieurwissenschaften am MIT), den Shannon für Anwender programmierte. 1940 erwarb er seinen Doktortitel in Mathematik mit einer Arbeit über theoretische Genetik (An Algebra for Theoretical Genetics) am MIT.

Nach kurzem Aufenthalt als Forscher am Institute for Advanced Study in Princeton, New Jersey, kam er 1941 als Mathematiker zu den ebenfalls in New Jersey gelegenen AT&T Bell Labs.

Nachdem er schon 1956 eine Gastprofessur am MIT angetreten hatte, wechselte er 1958 ganz dorthin, als Donner Professor of Science. 1978 wurde er vom MIT emeritiert. Seine professionellen Beziehungen zu den Bell Labs als Berater hielt er währenddessen bis 1972. In seinen letzten Lebensjahren litt er an der Alzheimer-Krankheit, an deren Folgen er auch starb.

Werk[Bearbeiten]

1948 veröffentlichte er seine bahnbrechende Arbeit A Mathematical Theory of Communication (dt. Mathematische Grundlagen in der Informationstheorie).[2] In diesem Aufsatz konzentrierte er sich auf das Problem, unter welchen Bedingungen eine von einem Sender kodierte und durch einen gestörten Kommunikationskanal übermittelte Information am Zielort wiederhergestellt, also ohne Informationsverlust dekodiert werden kann. Dabei konnte er überraschende Beziehungen zwischen der mathematisch definierten Information und dem aus der Physik bekannten Konzept der Entropie aufzeigen.

Gleichzeitig erschien von ihm der Artikel Communication in the presence of noise („Nachrichtenübermittlung bei Vorhandensein von Hintergrundrauschen“),[3] in dem er die Darstellung frequenzbeschränkter Funktionen durch die Kardinalreihe[4] nach John Macnaghten Whittaker (1929 und 1935) mit Überlegungen zur maximalen Datenrate, insbesondere von Harry Nyquist, zu einer Theorie der Kanalkapazität in der digitalen Signalübertragung verknüpfte. Vor ihm, jedoch ohne seine Kenntnis, publizierte Wladimir Alexandrowitsch Kotelnikow 1933 ein gleichlautendes Resultat. Demnach muss die Abtastfrequenz (Sampling rate) für ein Signal mindestens doppelt so groß sein wie die höchste Frequenz, die in ihm enthalten ist, um ohne Informationsverlust wieder in ein analoges Signal rekonstruiert zu werden (Nyquist-Shannon-Abtasttheorem).

Ein weiterer bemerkenswerter Artikel erschien 1949, Communication Theory of Secrecy Systems,[5] in dem Shannon die formalen Grundlagen der Kryptographie klärte und sie damit in den Rang einer eigenständigen Wissenschaft erhob.

Theseus Maze, MIT Museum, Cambridge, Massachusetts

Shannon war vielseitig interessiert und kreativ; er soll bei Bell jonglierend auf einem Einrad in den Gängen herumgefahren sein.[6] Randprodukte seiner beruflichen Tätigkeit sind unter anderem eine Jongliermaschine, raketengetriebene Frisbees, motorisierte Pogostöcke, eine Maschine zum Gedankenlesen, eine mechanische Maus (Theseus, 1950), die sich mittels eines einfachen Gedächtnisses bestehend aus Relais-Schaltkreisen in Labyrinthen orientieren konnte, und schon in den 1960ern ein früher Schachcomputer. Eine Arbeit von 1950 befasst sich bereits mit Schachprogrammen.[7] Die Arbeit war einflussreich und führte zu dem ersten Schachspiel auf Computern auf dem MANIAC Rechner in Los Alamos 1956. Er baute auch die „ultimate machine“, ein Kästchen mit einem Schalter, den eine mechanische Hand wieder auf „aus“ stellte, nachdem man ihn eingeschaltet hatte.[8] Nach ihm wurde die Einheit des Informationsgehaltes einer Nachricht, das Shannon, benannt.

Mitte der 1960er Jahre begann er sich für Finanztransaktionen zu interessieren und hielt darüber mehrfach am MIT gut besuchte Vorlesungen (einer seiner Hörer war Paul Samuelson). Er schlug ein heute Constant Proportion Rebalanced Portfolio genanntes Verfahren vor, um aus Zufallsfluktuationen des Marktes Gewinn zu erzielen (nach jeder Transaktion Aufteilung des Kapitals in genau zwei Hälften, eine für Spekulation, die andere Barreserve).[9]

Nach der Teilung von AT&T im Jahre 1996 wurde der Großteil der Bell Labs der neuen Firma Lucent Technologies zugeschlagen. Das Forschungslabor der AT&T in Florham Park, New Jersey, wurde ihm zu Ehren AT&T Shannon Laboratory[10] getauft.

Zu seinen Forschungsergebnissen im Bereich von Booleschen Algebren gehören der Inversionssatz sowie der Entwicklungssatz von Shannon.

Ehrungen[Bearbeiten]

1966 erhielt er die National Medal of Science. 1985 erhielt er den damals erstmals verliehenen Kyoto-Preis.

Literatur[Bearbeiten]

  • Neil Sloane, Aaron D. Wyner (Herausgeber): Claude Elwood Shannon: Collected Papers, New York 1993
  • R. Price: A conversation with Claude Shannon: one man's approach to problem solving, Cryptologia, Band 9, Heft 2, 1985, S. 167-175 und IEEE Comm. Mag., Band 22, 1985, S. 123-126
  • Warren Weaver, Claude Elwood Shannon: The Mathematical Theory of Communication. University of Illinois Press, Urbana Ill 1949. ISBN 0-252-72548-4
    • Warren Weaver: Mathematische Grundlagen in der Informationstheorie. Übersetzt von Helmut Dressler. Oldenbourg, München 1976. ISBN 3-486-39851-2 (dt. Ausgabe)
  • Axel Roch: Claude E. Shannon. Spielzeug, Leben und die geheime Geschichte seiner Theorie der Information. gegenstalt Verlag, Berlin 2009. ISBN 978-3-9813156-0-8.
  • James Gleick Die Information: Geschichte, Theorie, Flut, Redline Verlag 2011

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. veröffentlicht in Transactions Institute American Engineering, Bd.57, 1938
  2. Claude Elwood Shannon: A Mathematical Theory of Communication. In: Bell System Technical Journal. Short Hills N.J. 27.1948, (Juli, Oktober), S. 379–423, 623–656. ISSN 0005-8580
  3. Claude Shannon:Communication in the Presence of Noise. Stanford University (PDF, englisch; 301 kB). Zuerst Proc. IRE Bd.37, 1949, S.10-21
  4. Bezeichnung von Whittaker. Siehe Nyquist-Shannon-Abtasttheorem
  5.  Claude Elwood Shannon: Communication Theory of Secrecy Systems. In: Bell System Technical Journal. 28, Nr. 4, 1949, S. 656–715 (http://netlab.cs.ucla.edu/wiki/files/shannon1949.pdf).
  6. Bob Stoffels (undatiert): Claude Shannon (April 30, 1916 - February 24, 2001). Electrical Engineer and Mathematician. ospmag.com (abgerufen 17. November 2014)
  7. Programming a computer to play chess, Philosophical Magazine, Bd.41, 1950, Nr.314
  8. Frank Thadeusz: Das Leben des Seltsamen. In: Der SPIEGEL. Nr. 45, Hamburg 2009. ISSN 0038-7452
  9. William Poundstone Fortune´s Formula, 2005, Kapitel Shannon´s Demon (auf die Analogie zu Maxwell´s Dämon anspielend).
  10. AT&T Research Locations