Diskussion:American Standard Code for Information Interchange

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

7-Bit Kodierung[Quelltext bearbeiten]

Eine Stelle im Artikel ist etwas missverständlich: "Das für ASCII nicht benutzte achte Bit..." Hier wird impliziert, dass es immer ein achtes Bit gibt. Das ist aber nicht der Fall.

Im einem Hauptspeicher, bei dem 1 Byte die kleinste adressbierbare / zugreifbare Einheit darstellt ist es dies vielleicht nicht von Bedeutung, aber bei z.B. serieller Übertragung schon.

Ein Beispiel: Bei einer seriellen Übertragung, bei der die einzelnen Bits nacheinander auf einer Leitung übertragen werden, fängt bei ASCII nach dem siebten Bit wieder ein neues Zeichen an. Dies ist von Bedeutung, da in diesem Fall UTF-8 nicht abwärtskompatiebel zu ASCII ist. UTF-8 erfordert immer mindestens 8-bit, ASCII nicht. UTF-8 ist nur kompatiebel zu ASCII, wenn dies als 8-bit kodiert wird. (nicht signierter Beitrag von 93.129.56.32 (Diskussion) 20:16, 27. Jun. 2016 (CEST))[Beantworten]

Fehler in der Tabelle bei "Kodierung"[Quelltext bearbeiten]

Die Zeichen A, B und C müssen Kleinbuchstaben sein, ansonsten stimmen die dazugehörigen Werte nicht.

A ist an der Stelle 65, und a an der Stelle 97 – das passt so. (nicht signierter Beitrag von 87.185.61.144 (Diskussion) 11:08, 23. Feb. 2011 (CET)) [Beantworten]

Hier stimmt doch was nicht[Quelltext bearbeiten]

Ich bin zufällig auf diese Seite gestoßen und kann nur den Kopf schütteln.Bob Bemer, digital dargestellte Ganzzahlen, digitale Geräte, und so weiter. Zumindest auf der englischsprachen Wikipedia steht doch was ganz anderes. Wenn man die Seite ins Deutsche übersetzen würde, wäre das schon ganz ok.

Ok, ich werde den größten Unsinn mal bereinigen. Franz Scheerer 12.03.2006

Was soll die Verschiebung von ASCII nach American Standard Code for Information Interchange? Ohne Robotaktion dürfte der Artikel nur unter ASCII oder US-ASCII verlinkt sein und ist da auch nicht mehrdeutig. Artikel sollten in solchen Fällen immer unter dem Begriff eingeordnet sein, der am ehesten »nachgeschlagen«, also verlinkt und eingetippt, wird. Bitte rückgängig machen, sonst mache ich das. Crissov 05:12, 23. Apr 2004 (CEST)

Meines Wissens gab es eine (kurze/lange? keine Ahnung) Diskussion auf der wikipedia-Mailingliste. Soweit ich weiss, sollen die Redirects stehen bleiben, aber die Überschriften die Langform erhalten. Man kann also immer noch unter ASCII den Artikel finden. Ob das jetzt im Einzelfall gut oder schlecht ist, möchte ich mal nicht bewerten. Allerdings ist ein bisschen Standard mMn immer besser als Wildwuchs. Soweit das Nachschlagen nicht betroffen ist, hab ich jedenfalls wenig Einwände. --Hubi 08:25, 23. Apr 2004 (CEST)
Jetzt ist die Diskussion unter American Standard Code for Information Interchange und der Artikel unter ASCII, auch merkwürdig... --Omnibrain

Steuerzeichen[Quelltext bearbeiten]

Wenn hier wer in der Lage ist alle 32 ersten ASCII-Werte genauner (also nicht nur mit den Abkürzungen) zu erklären möge er das bitte tuen denn das wäre ein weiteres hilfreiches Feature, genauso wie das hinzufügen der Dezimalwerte wenn Hex.-Werte genannt werden. -- M.L 12:39, 12. Okt 2004 (CEST)

Vielleicht hilft dir ja Steuerzeichen weiter? --Candid Dauth 22:59, 13. Dez 2004 (CET)

Weiß jemand, wie man »ASCII« offiziell ausspricht? Ich selbst spreche es einfach »Asskie« aus, ich habe aber auch schon »A S C I« [Ah Ess Ze Ih] gehört, und auch »Assk 2« kam schon vor. Gibt es da eine Festlegung? --Candid Dauth 22:59, 13. Dez 2004 (CET)

Ich kenne es hauptsächlich als »Esskie« (»Assk 2« war mir bislang neu). --Omnibrain 23:57, 23. Jan 2005 (CET)
Typischer Informatiker-Slang: Äski wäre sicher richtig, doch Amis neigen zu gedehntem A [a:] und das hört sich dann eher so an: „Aaski“. [hd 2006-06-20 02:00]
Ich kenn eigentlich fast nur die Aussprache »Astsi« (also gemäß traditionell deutscher Standardaussprache (die beim c grundsätzlich von der spät- bzw. neulateinischen Aussprache abgeleitet ist) unter Vernachlässigung des zweiten I) wie auch z.B. bei Ascites. Die englisch bzw. amerikanisch angehauchte Aussprache ist eine ziemlich neue Mode, aber das »in der Regel [æski]« aus dem Artikel (wohl unreflektiert aus der englischen Wikipedia übernommen) ist in Deutschland definitiv falsch. So extrem sprechen das selbst die, die meinen, ständig ihre Fremdsprachkenntnisse raushängen lassen zu müssen, selten aus. --84.150.135.209 02:14, 26. Jun 2006 (CEST)
"neue Mode"? Recency illusion? Ich sprech das schon immer "Asskie" oder "Äskie" aus. Seit mehreren Jahrzehnten. Ich habe noch nie "Astsi" gehört. (Anonyme IP passt übrigens perfekt zu dem Tonfall) --Jürgen Erhard (Diskussion) 08:50, 22. Aug. 2021 (CEST)[Beantworten]
Wer "Assk 2" sagt benutzt auch den "six"-Editor! ;-) RedNifre 15:26, 27. Jun 2006 (CEST)

Verwandtschaft[Quelltext bearbeiten]

Bei alten MS-DOS-Programmen gab es doch so einen ASCII-ähnlichen Code, bei dem auf den ersten Zeichen Sonderzeichen wie Smilies und Kartensymbole vorkamen, was genau war das? --Omnibrain 23:59, 23. Jan 2005 (CET)

Das ist der Codepage_437 Zeichensatz. --217.93.227.155 15:46, 10. Feb 2005 (CET)

"ASCII-Code" und "ASCII-Standard"[Quelltext bearbeiten]

Da meine Korrekturen(Anmerkung: 08:59, 25. Feb 2005) freundlicherweise wieder rückgängig gemacht wurden, möchte ich darauf hinweisen, dass nur auf einer einzigen Seite Wörter wie "ASCII-Code" oder "ASCII-Standard" vorkommen dürfen und das wäre die Liste von Tautologien.

Florian Weinhold

ASCII bedeutet American Standard Code for Information Interchange. Das Standard darin ist ein Adjektiv! Das Substantiv ist Code. »Der ASCII-Standard« ist also vollkommen in Ordnung, auch und gerade im Deutschen. Ebenso ist »der ASCII-Code 93« weniger falsch als »der ASCII 93«, wenn es um die (dezimale) Position 93 geht. Darüberhinaus gilt es als Eigenname und bedarf als solcher keines Artikels, es heißt also: »Unicode hat ASCII heute in vielen Bereichen abgelöst«, und nicht: »Der Unicode hat den ASCII-Code heute in vielen Bereichen abgelöst.« Christoph Päper 19:40, 11. Mär 2005 (CET)
Das Letzte deckt sich aber mit dem Einwand von Florian Weinhold... Aber ich glaube, auch schon mal sowas wie Unicode-Code gehört zu haben. --Omnibrain 14:22, 12. Mär 2005 (CET)
Stimmt, es gibt Unicode-Codepoints 80.81.29.153 16:36, 22. Jun 2005 (CEST)
Nicht ganz, er löscht ja überall nur »-Code« und »-Standard«, wodurch der Satz ihm zufolge so lautet: »Der Unicode hat den ASCII heute in vielen Bereichen abgelöst.« Dass er an naderer Stelle »Standart«(!) schreibt, spricht auch nicht gerade für seine Sprachkompetenz. Christoph Päper 15:10, 12. Mär 2005 (CET)
Auch wenn standard als Adjektiv verwendet ist, schreibt man wohl kaum vom Standardcode Standard.
ASCII Code 93 stimmt allerdings, da ja der Code 93 gemeint ist und nicht ASCIICode, Nummer/Version 93. --Flo Weinhold 9:00, 14.3.05
P.S.: Dafür schreibe ich an anderen Stellen, und nicht an naderen(sic!) Stellen. Wer im orthographischen Glashaus sitzt, sollte nicht mit seinen "sprachlichen Kompetenzen" prahlen ;)
P.P.S.: Nichtsdestotrotz, danke für den (das nächste Mal bitte, so es keine größeren Umstände bereitet, etwas höflicheren und sachlicheren) Hinweis sowie die Korrektur.


Office ASCII Codes[Quelltext bearbeiten]

Was ich etwas vermisse sind die Zahlenkombinationen für Windows, bzw. Office Programme um z.B. Umlaute auch ohne deutsche Tastatur darstellen zu können.

Das wäre etwas für ein Benutzerhandbuch, nicht für eine Enzyklopädie, aber in ASCII sind ohnehin gar keine Umlaute enthalten. Du suchst IBM-/Windows-Codepages. Nimm aus der passenden Tabelle, z.B. ISO 8859-1#Windows-1252) die dezimale Position. Christoph Päper 8. Jul 2005 19:40 (CEST)

Kompatible Zeichenkodierungen[Quelltext bearbeiten]

Da sind wieder einige definitiv nicht ASCII-kompatible Kodierungen als kompatible Kodierungen aufgelistet, obwohl ich die schon mal rausgelöscht habe. Ich lösche wieder die raus, von denen ich ad hoc weiß, dass sie nicht kompatibel sind. Bitte aufpassen! – Hokanomono 08:25, 25. Jul 2005 (CEST)

Hmm, ich will jetzt nicht nachsehen, wie es damals war ... bis eben standen eine Reihe von Kodierungen in der Liste "Kodierungen mit fester Länge", die garantiert variable Länge haben - ich habe die in die andere Liste verschoben. Weiß jemand was zu VISCII? Zum Satz vor der Liste:

In den meisten Kodierungen ist dies ein Byte je Zeichen, bei den ostasiatischen Schriften zwei oder mehr Byte je Zeichen.

Kann es überhaupt Feste-mehrere-Byte-Länge-Kodierungen geben, die mit ASCII kompatibel sind? Wenn, dann wäre etwa UCS-2 oder UCS-4 so etwas (wenn man Texte aus dem ASCII-Vorrat damit kodiert, und dann das Ergebnis als ASCII auffasst (und gemäß ASCII die NUL-Werte ignoriert), hat man wieder das Original) – aber ein ASCII-kodierter String kann nicht mit diesen Kodierungen eingelesen werden. -- Paul E. 16:17, 20. Mai 2008 (CEST)[Beantworten]

Am Ende des einleitenden Abschnitts wird UTF-8 als Codierungsart bezeichnet. UTF-8 (und z.B. UTF-16) ist aber ein Standart, der festlegt wie Unicode Zeichen in einem oder mehreren Bytes gespeichtert werden können. Richtig ist hier UTF-8 durch Unicode zu ersetzen. --213.146.250.180 13:17, 1. Jun. 2010 (CEST)[Beantworten]

Lesenswert-Diskussion Nov. 2005[Quelltext bearbeiten]

Pro Sauber strukturiert, alles was wichtig ist, wurde erwähnt, ein einfach runder Artikel. --Kinley 14:08, 2. Nov 2005 (CET)

nicht klar ist, warum die Zuordnungstabelle statt der sieben genannten Bits plötzlich zwei Zeichen benutzt ;-). Das sollte noch geklärt werden. Ansonsten pro. --Kurt seebauer 15:46, 2. Nov 2005 (CET)

Pro Erklärt den Sachverhalt kurz und knackig. -- Kyr 14:56, 3. Nov 2005 (CET)

Kontra - komplett wirr. Der Autor hat nicht verstanden, daß es bei ASCII eben gerade keine Umlaute gibt. Das Fachchinesisch zu Beginn erschwert den Einstieg unnötig. Rückgriff auf den Morsecode erhellt den Gegenstand nicht. --Keichwa 18:47, 3. Nov 2005 (CET)

Wo genau steht im Artikel, dass es im ASCII Umlaute gibt? Das steht alles unter Erweiterungen des Codes durch andere Standards.. --Kinley 22:09, 3. Nov 2005 (CET)

Kontra - Der Artikel liest sich zwar relativ flüssig, aber es gibt doch einige Punkte die mich stören:

  • Warum einen Extra Absatz wofür das Akronym ASCII steht? Die Information könnte meiner Meinung nach mit dem Erfinder und vor allem dem Erfinderjahr in den ersten Einleitungssatz. (btw: Bin kein Freund von mehreren Absätzen in der Einleitung.)
  • Zusammensetzung: Was will mir die Tabelle sagen? Was bedeuted 0... bzw ...0? Aus dem Text entnehme ich dass es irgendwas mit Hexadezimalzahlen zu tun hat, aber leider weiß ich auch danach nicht was die Bedeutung von ...F ist? (außerdem ist die komplette Tabelle in einem eigenen (wie ich finde unsinnigen) Artikel verlinkt. Vielleicht die Tabelle komplett nach ASCII überführen?
  • Ich denke nicht dass ASCII heute unwichtig ist. Für normale englischsprachige Konversationen reicht es vollkommen aus. In Europa ist es wahrscheinlich unwichtig, das stimmt. Aber in den USA? Unterstützen C++ und Co überhaupt von sich aus schon was besseres als ASCII? (bei Qt und Java weiß ich dass sie es tun)
C kennt keine Zeichenfolgen. Ansonsten gibt es auch in der englischen Sprache Fremdwörter, schöne Anführungszeichen und femdländische Währungssymbole. Mal ganz davon abgesehen, dass Amerika aus mehr als den USA besteht. --Hendrik Brummermann 15:52, 6. Nov 2005 (CET)
  • Was soll der Abschnitt Kodierungen mit fester Länge (Auswahl) bringen? Was hat das mit ASCII zu tun?
  • Der Abschnitt Erweiterungen hat zwar nette Beispiele was alles so schief gehen kann, aber ist das wirklich etwas was mit ASCII in verbindung steht? Würde bei mir eher unter Trivia laufen wenn da jetzt versehentlich die Zeichen "falsch" interpretiert werden. Außerdem weiß (im Sinne von ich habe echt keine Ahnung :-)) ich nicht ob man einen Zeichensatz wie ISO 646-DK als Erweiterung von ASCII betrachten sollte. Die Bits werden doch "komplett" anders interpretiert. Regnaron 22:23, 3. Nov 2005 (CET)
Ich denke, der Aufwand, der durch diese Probleme entstanden ist und zur Zeit noch entsteht ist deutlich größer als die Jahr-2000-Geschichte. Zugegeben das Beispiel ist etwas albern. --Hendrik Brummermann 15:52, 6. Nov 2005 (CET)

Jahresangabe[Quelltext bearbeiten]

Auf Zeichenkodierung ist die erste ASCII-Version auf 1963 datiert und laut Bob Bemer hat er auch nur bis 1965 bei IBM gearbeitet. Sollte man also nicht das Datum im ersten Absatz ändern? --tdad 23:49, 14. Nov 2005 (CET)

Es fehlt ein Verweis auf EBCDIC. Ein Hauptgrund für die Einführung von ASCII war IMHO die Tatsache, das die Buchstaben bei EBCDIC nicht lückenlos aufeinander folgen. Damit war eine Sortierung von Strings in aufsteigender Reihenfolge problematisch. --Shmia 14:57, 23. Nov 2005 (CET)

Umbauhinweis[Quelltext bearbeiten]

Ich habe heute einige Umbauten vorgenommen - es sieht nach Vandalismus aus, aber nur die Reihenfolge und Dopplungen im Text sind verschwunden, nichts substantielles verlorengegangen. --Nerdi ?! 18:21, 26. Mär 2006 (CEST)

http://www.paulschou.com/tools/xlate/

Vielleicht könnte man diesen Link bei Weblinks hinzufügen. Ist ein meiner Meinung nach sehr interessanter Converter.

mfg

Fußball-WM 2006 in ASCII[Quelltext bearbeiten]

Für alle Interessierten: ASCII-WM

Im ersten Absatz des Artikels ist 'n Typo!

Es fehlt der Vermerk/Hinweis auf die gleichwertige Schreibweise »US-ASCII«

Am Wichtigsten ist aber die fehlende Definition als US-amerikanische nationale Variante (Nr. 6) des ISO 7-Bit-Codes (ISO 646) (damit würden einige Diskussionspunkte von vornherein hinfällig). [hd 2006-06-20 02:40]

ist das hier ascii: ▓ ░

Nein, das ist Codepage 437 oder sonst irgend ein erweiterter Code, aber jedenfalls kein ASCII. -- 84.130.12.120 15:25, 31. Aug 2006 (CEST) Je nachdem wie man das sieht: Als ich zuerst mit ASCII zu tun hatte, hatte ich das "II" immer als römische 2 angesehen Also ASC"2". Und da gab's bei meinen alten KC85/4 mit U880-Prozessor 0-255 Zeichen auf einer 8x8 (Schachbrett-)Matrix. (nicht signierter Beitrag von 217.253.181.143 (Diskussion) 10:28, 17. Aug. 2015 (CEST))[Beantworten]

Schreibfehler[Quelltext bearbeiten]

Fehler im Text:

„0-127“ müsste „0–127“ sein.

„z.B.“ müsste „z. B.“ sein.

Mehrfach wird das Zollzeichen an Stelle von Anführungszeichen verwendet.

Was soll das, einen typografisch fehlerhaften Artikel vor Bearbeitung zu schützen?

Hannes Kuhnert 19:38, 6. Aug 2006 (CEST)

Da fehlt ein Zeichen![Quelltext bearbeiten]

Muss da nicht noch das § Zeichen hin????

Nein. Wasseralm 13:42, 6. Dez. 2006 (CET)[Beantworten]

Ascii-delimited[Quelltext bearbeiten]

Gibt es irgendwo eine Dokumentation zu Ascii-delimited? -- Claus Kirche 11:07, 30. Jan. 2007 (CET)[Beantworten]

Das sind einfach Dateien, deren Zeichenvorrat (und -kodierung) sich auf US-ASCII beschränkt. In ihnen sind Werte in Spalten und Zeilen angeordnet, wobei Zeilen ganz normal durch Zeilenumbrüche (CR, LF oder CRLF) kodiert werden und Felder durch ein mehr oder weniger beliebiges Trennzeichen (üblich sind u.a. (horizontaler) Tabulator (=> TSV), Komma (=> CSV) und Semikolon) abgegrenzt werden. Mit diesem Artikel hat das eigentlich wenig zu tun, es sei denn man wollte alle Textdateiformate aufführen, in denen US-ASCII eingesetzt wird bzw. werden kann. Christoph Päper 16:24, 30. Jan. 2007 (CET)[Beantworten]

Link zu laienverständlicher ASCII-Code-Erklärung wiederhergestellt[Quelltext bearbeiten]

Nützlichen Weblink wiederhergestellt, Grund: Auch für Laien sehr gut verständliche Erklärung, die mit Hilfe eines Bildrätsels direkt umgesetzt werden kann: Kamelopedia: ASCII-Erklärung mit Rätselbild --212.48.108.4 16:37, 23. Apr. 2008 (CEST)[Beantworten]

Zusammengeklebte Lochstreifen[Quelltext bearbeiten]

Aus dem Artikel habe die Behauptung (über Lochstreifen) „wurden Bandteile aneinandergeklebt, entstand auch hier ein ungelochter Bereich, der ebenfalls zu ignorieren war“ entfernt. Sie ist schlichtweg falsch. Durch das Zusammenkleben entsteht nicht notwendig ein ungelochter Bereich. Zur Erinnerung: Lochstreifen wurden in der Regel nicht überlappend zusammengeklebt, sondern mit Hilfe eines dünnen Klebebands auf Stoß. Überlappung führte schon bei mechanischen Lesern gern zu Streifenriß oder Ziehharmonika. Spätere, schnellere Leser tolerierten selbst Klebebänder kaum noch.

Zusammengeklebt wurden Streifen nur selten, um aus mehreren kurzen Rollen eine lange zu machen, sondern entweder, um eine Endlosschleife zu erzeugen, oder zur Fehlerkorrektur. In beiden Fälle wurde die Klebestelle nachträglich von Hand perforiert; mindestens die Transportlochungen mußten nach dem Zusammenkleben wiederhergestellt werden, aber es sprach außer der etwas erhöhten Gefahr von Lesefehlern nichts dagegen, auch die Informationsspuren zu perforieren (ich habe meist zeichengenau korrigiert).--217.233.64.165 13:32, 25. Jun. 2008 (CEST)[Beantworten]

Die Klebetechnik sei zugestanden – ich hatte diese Fummelei nur mal mit NC-Maschinen, und ich war froh, sie bislang verdrängt haben zu dürfen. Wir hatten eine Art Nagelreihe, in die die Transportlöcher beider Enden mussten, damit die Transportmechanik nicht durcheinanderkam. Dabei war es für uns aber völlig egal, wieviel ungelochtes Ende an den Streifen überstand. Irgendwie war es aber ganz ganz wichtig, welches der beiden Enden oben lag. (Es ging darum, mehrfach gleichförmig ausgelochte Standardbearbeitungsgänge spontan vor Ort innerhalb von verschiedenen Bauteilen für die Produktion einzuspleißen.) Ob das nun schnelle, langsame oder besonders robuste Leser sein mochten, weiß ich nicht. Die erfolgreich angewandte Technik war Überlappend mit gut und reichlich UHU.
Zur Sache (Codierung) – Der Standard ließ (lässt) es einfach zu, dass „wo auch immer, warum auch immer“ ungelochte Bereiche auftreten dürfen, und diese völlig zu ignorieren seien. --PerfektesChaos 14:50, 7. Jul. 2008 (CEST)[Beantworten]
Kleiner Nachtrag: Schmunzelnd las ich gerade nochmal bei Lochstreifen:
Für größere Änderungen musste man nur in vernünftigen Abständen Sequenzen von reiner Transportlochung einfügen, was normalerweise einem nicht benutzten Code „null“ entsprach.
Lang' ist's her ... --PerfektesChaos 14:56, 7. Jul. 2008 (CEST)[Beantworten]

Tabelle "Zusammensetzung"[Quelltext bearbeiten]

Vielleicht sollte man da irgendwas zu schreiben, damit man auch etwas mit der Tabelle anfangen kann, wenn man nicht schon vorher weiß, wie das geht. --84.143.77.86 18:23, 19. Aug. 2008 (CEST)[Beantworten]

In der Tabelle haben manche Steuerzeichen einen Link, andere nicht. Manche haben auch einen roten Link. Sollte man das nicht einheitlich regeln? Es ist nicht unbedingt notwendig für jedes Steuerzeichen einen eigenen Artikel zu schreiben, aber zu einer Erklärungsseite zu verlinken fände ich gut. Welche Oma weiß schon, wofür SOH steht? Ich sehe, dass die Steuerzeichen ein Baustein sind, dementsprechend müsste es dort geändert werden. --Eorhim 10:46, 13. Jan. 2011 (CET)
Die Steuerzeichen werden im Artikel Steuerzeichen beschrieben. Zu manchen Steuerzeichen gibt es eigene Artikel. --Fomafix 11:13, 13. Jan. 2011 (CET)[Beantworten]

An Position 4 steht EOT, es wird als End of File erklärt. Ich vermute daher einen Tippfehler. (nicht signierter Beitrag von 87.185.66.156 (Diskussion) 23:00, 19. Feb. 2011 (CET)) [Beantworten]

Danke fürs aufpassen. Position 4 steht für End of Transmission nach RFC 20. Ich habe es korrigiert. --Fomafix 23:42, 19. Feb. 2011 (CET)[Beantworten]

Kann mir bitte jemand erklären, wie die Tabelle generiert wird und woher die Links kommen? Ich möchte den Wikilink für ESC ändern, aber die mit {{ASCII-Steuerzeichen}} bzw. {{ASCII-Zeichen}} eingebundenen Seiten existieren gar nicht (?). Danke, --Phrontis (Diskussion) 23:22, 17. Jun. 2013 (CEST)[Beantworten]

Das sind Vorlage:ASCII-Steuerzeichen und Vorlage:ASCII-Zeichen. Bedenke aber, dass diese Vorlagen auf zahlreichen Seiten eingebunden werden und Deine Änderungen sich auf alle Einbindungen auswirken. --° (Diskussion) 12:22, 18. Jun. 2013 (CEST)[Beantworten]

Bei dem Editwar der letzten Wochen, wäre es nicht besser den Artikel (erst einmal) für nicht registrierte Benutzer zu sperren? --DerAndre 22:19, 12. Nov. 2008 (CET)[Beantworten]

Und wie gebe ich das ueber Tastatur ein? --Room 608 18:57, 2. Feb. 2010 (CET)[Beantworten]

Schau mal weiter oben. :) Ich denke, das entspricht Deiner Frage, oder? --Yrwyddfa Ruf-Mich-An! Wie fahre ich? 23:21, 30. Sep. 2010 (CEST)[Beantworten]

Begriff „höchstwertiges bit”[Quelltext bearbeiten]

Dieser Begriff findet sich unter #Kodierung:

Das höchstwertige Bit in jedem Byte ist bei Verwendung von ASCII auf den Wert 0 gesetzt.

Es ist aber nicht erklärt und in diesem Kontext ist nicht ersichtlich, warum ein bit „hochwertiger“ sein soll als ein anderes. Sollen alle “1” zu “0” oder ist die Stelle des bits im Byte erwähnt? Bitte mal jemand, der sich damit auskennt, einfügen (klar, das erste ist es nicht, das weiß ich auch, aber was es definitiv ist, ist mir auch nicht klar). Danke! --Yrwyddfa Ruf-Mich-An! Wie fahre ich? 18:40, 27. Sep. 2010 (CEST)[Beantworten]

Das höchstwertige Bit ist dasjenige mit dem höchsten Wert. Ich weiss, das hört sich zuerst blöd an, aber als Zahl betrachtet, gibt es halt ein Bit mit dem Wert 2 hoch 0 (=1), das ist das niedrigste. Wenn man Binärzahlen hierzulande aufschreibt, ist es das am weitesten rechts gelegene. Auf der "anderen Seite" des Byte ist eins mit dem Wert 2 hoch 7 (= 128), das ist das höchstwertige. Die größte mit den 7 Bit des ASCII darstellbare Zahl ist 127, wie der Artikel auch sagt. Das ist binär 0111 1111 = 64 + 32 + 16 + 8 + 4 + 2 + 1, das höchstwertige Bit (mit dem Wert 128) ist also Null. Alles klar jetzt? --Herbert Klaeren 23:31, 27. Sep. 2010 (CEST)[Beantworten]
Ah, verstehe... gemessen am Dezimalsystem wäre bei der Zahl 1000 die erste Stelle sozusagen die höchstwertige, da sie am meisten Kombinationen vereint (in diesem Fall wird von links nach rechts gelesen, im anderen Fall halt von rechts nach links) - richtig so? Wäre super, wenn das vielleicht noch in den Artikel könnte, denn da wird das nicht klar und bringt einen Laien beim Lesen ins Stocken... vielen Dank schonmal! --Yrwyddfa Ruf-Mich-An! Wie fahre ich? 20:38, 29. Sep. 2010 (CEST)[Beantworten]
Ich habe ein Link auf Bitwertigkeit#Msb gesetzt. --Fomafix 20:48, 29. Sep. 2010 (CEST)[Beantworten]
Danke, ja ist besser so. Frustrierend ist, dass man da fast hätte selbst drauf kommen können *grmpf* ein lächelnder SmileyVorlage:Smiley/Wartung/:)  --Yrwyddfa Ruf-Mich-An! Wie fahre ich? 23:11, 30. Sep. 2010 (CEST)[Beantworten]

Beim ASCII 1963 genauer ASA X3.4-1963 sind nicht nur manche druckbare Zeichen, sondern auch manche Steuerzeichen anders als beim heutigen ASCII. Siehe https://web.archive.org/web/20131104195533/http://www.wps.com/projects/codes/X3.4-1963/page5.JPG Die Änderung von Benutzer:Pietz ist daher sachlich nicht korrekt. --Fomafix (Diskussion) 22:27, 17. Dez. 2014 (CET)[Beantworten]

Sortierung: Geschichte weiter hinten[Quelltext bearbeiten]

Ich habe die Reihenfolge der ersten drei Kapitel geändert: 1) Kodierung - 2) Zusammensetzung - 3) Geschichte. Zuvor stand 3) vor 2). Das ist sinnvoll weil erstens in 1) damit losgelegt wird, dass es 7 bit sind, erklärt in 2) die 7-bit-Belegung und erwähnt dann in 3) die alten 5-bit; zweitens gibt jetzt die erste richtige Tabelle die gültige ASCII-Kodierung an, und die (v.a. historisch interessanten) Unterschiede zu früheren Versionen kommt erst weiter hinten - gemäß dem Grundsatz: das Wichtigste zuerst. Wassermaus (Diskussion) 16:26, 20. Jul. 2015 (CEST)[Beantworten]

"Heute wird es aber fast immer zur Erweiterung von ASCII auf einen 8-Bit-Code verwendet" ??? (nicht signierter Beitrag von 78.43.41.18 (Diskussion) 21:25, 4. Nov. 2015 (CET))[Beantworten]

Ist das Leerzeichen druckbar?[Quelltext bearbeiten]

derziet steht im Artikel: "Die Zeichenkodierung definiert 128 Zeichen, bestehend aus 33 nicht druckbaren sowie 95 druckbaren Zeichen. Druckbare Zeichen sind, beginnend mit dem Leerzeichen: ...". Anschließend sind die Zeichen 0x20 bis 0x7F aufgeführt. Das sind aber 96 Zeichen, was den angeblich 95 druckbaren Zeichen entspricht. Die Diskrepanz liegt darin, dass im Prosa-Satz das Leerzeichen 0x20 nicht als druckbar gezählt wird, in der Aufzählung dagegen schon. Hier sollte man sich einigen. Meiner Meinung nach ist das Leerzeichen ein druckbares Zeichen, denn es nimmt auf Bildschirm oder Tickerstreifen einen Platz ein, nur eben im Gegensatz zu anderen Zeichen ohne Licht, bzw. ohne Druckerschwärze. Es sollten also "32 nicht druckbare sowie 96 druckbare Zeichen" sein. Was meint Ihr? --Asdert (Diskussion) 11:38, 27. Feb. 2020 (CET)[Beantworten]

Das Zeichen DEL (0x7F) ist auch nicht druckbar. --FriedhelmW (Diskussion) 11:41, 27. Feb. 2020 (CET)[Beantworten]
… und somit stimmt die Aussage "33 nicht druckbare sowie 95 druckbare Zeichen" und betrachtet das Leerzeichen als druckbar. -- Karl432 (Diskussion) 11:51, 27. Feb. 2020 (CET)[Beantworten]
Autsch! Natürlich! 0x7F ist das einzige Steuerzeichen jenseits von 0x1F. Sorry, hatte ich nicht auf dem Schirm. Alles gut, der Artikel ist korrekt. --Asdert (Diskussion) 12:44, 27. Feb. 2020 (CET)[Beantworten]

Tote Links in der Steuerzeichentabelle[Quelltext bearbeiten]

Im Artikel gibt es eine "ASCII-Zeichentabelle, hexadezimale Nummerierung", die leider nur so von toten Links voll ist. Nur wenige der Steuerzeichen haben einen eigenen Artikel bekommen. Das ist nicht gerade toll. Im englischen Wiki haben sie das gelöst, indem sie für alle Steuerzeichen, die keinen eigenen Artikel haben, per Umleitung auf die entsprechende Tabellen-Zeile im Artikel C0 and C1 control codes verlinkt haben. Das deutsche Pendant dazu wäre Steuerzeichen. Wäre das nicht auch ein Ansatz für das deutsche Wiki? --89.244.255.188 10:20, 28. Sep. 2022 (CEST)[Beantworten]

Nachdem dies teilweise schon so gemacht wird (siehe Data Link Escape), setze ich dies jetzt für alle Steuerzeichen um, die im Moment in der Tabelle als Rotlink sichtbar sind. Betroffen sind: SOH, STX, ETX, ENQ, FF, SO, SI, ETB, CAN, EM, FS. Es steht jedem offen, diese Weiterleitung im Einzelfall sinnvoller umzuleiten oder durch einen Artikel zu ersetzen. -- Karl432 (Diskussion) 11:22, 28. Sep. 2022 (CEST)[Beantworten]

ASCII ist die eindeutig üblichere Bezeichnung, als das derzeitige Lemma, das sogar eher unüblich ist. Ich schlage daher eine Verschiebung auf das Lemma ASCII vor. Besten Gruß --Emberwit (Diskussion) 21:57, 1. Okt. 2023 (CEST)[Beantworten]