Diskussion:Personal System/2

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 7 Monaten von 84.158.123.253 in Abschnitt PS/2 "Namensgebung"
Zur Navigation springen Zur Suche springen

Intelligentes Netzteil[Quelltext bearbeiten]

Was ist in diesem Zusammenhang das im Artikel erwähnte "intelligente" Netzteil? Ist damit ein Schaltnetzteil gemeint? Und wenn ja, was war dann vorher üblich? --MrBurns 14:47, 18. Okt. 2009 (CEST)Beantworten

Schaltnetzteile als PC-Stromversorgung waren schon vorher üblich.--Rotkaeppchen68 23:27, 18. Nov. 2009 (CET)Beantworten
Vlt. dass es von aussen gesteuert werden konnte, also ein- und ausschaltzeiten konten programmiert werden, bzw. der rechner konnte ferngesteuert ein- und ausgeschaltet werden? Bzw. konnte auch durch fehlersignale aus dem rehner ausgeschaltet werden...? -- 8ohmSpeaker 03:55, 14. Jun. 2011 (CEST)Beantworten
Der Abschnitt ist einfach Unsinn. Eine Programmierung mit Software gesteuerter Zeitschaltuhr durch den Computer ist beim PS/2 Computer nicht möglich, weil der Einschaltknopf ein Schalter und kein Taster ist, wie viele Bilder auch zeigen. Diese Möglichkeit gab es erst ab dem ATX Standard, ATX Gehäuse haben keine Schalter mehr, sondern nur noch Taster. Damit sich der Computer selber einschalten kann, muss er einen geringen Versorgungsstrom weiterhin beziehen können, daher darf das kein Schalter sein.
Und Power Management Funktionen kommen auch nicht in Frage, weil der Advanced Power Management Standard auch erst viel später kam, nämlich 1992, da war die PS/2 Serie schon lange ein totes Pferd.
Vielleicht ist mit Intelligent gemeint, dass es laut dieser Spezifikation das Merkmal "with internal sensing, for worldwide usage" hat. Also die vorherrschende Nennspannung selber erkennt und man das nicht mehr einstellen muss. Dem entgegen steht aber ein Blick ins Handbuch des IBM Personal System 2 Model 30 auf Seite 1-3 (in der PDF Seite 8) in dem steht, dass man immer noch einen Schiebeschalter hinten einstellen muss, ob dass Netz 115 V oder 230 V hat.
Wenn es also irgendein PS/2 Modell gab, das über eine derartige Funktion am Netzteil verfügte, dann war sie modellabhängig und daher keine generelle Eigenschaft der kompletten PS/2 Serie. Sollte also im laufe der Zeit niemand eine bessere Erklärung haben, dann schlage ich vor, diesen Abschnitt aus dem Artikel zu entfernen. --84.158.123.253 17:24, 18. Sep. 2023 (CEST)Beantworten

Bedingungslose Abwärtskompabilität auch auf Hardware-Ebene als oberstes Gebot im IT-Bereich[Quelltext bearbeiten]

Das galt und gilt nur für den PC-Bereich (früher DOS, dann Windows).

Andere Systeme (z.B. Apple) waren und sind wesentlich innovationsfreudiger und trennen sich regelmäßig von alten Zöpfen.

212.114.159.142 12:02, 27. Okt. 2010 (CEST)Beantworten

Eine hehre absicht, heute aber selbst im Windows-PC-bereich längst eine illusion, die nur sehr beschränkt erfüllt wird. Wurde schon vor geraumer zeit dadurch aufgegeben, dass man ATX-mainboards nicht mehr ins AT-, XT-, bzw. "PC"-gehäuse reinbringt, auf modernen PCs, wo die mainboard keinen floppy-anschluss hat, können keine disketten gelesen werden, ebenso schon längst die ersten festplatten, die in PCs eingesetzt wurden. Auch kann man schon seit langem keine Windows 98 auf den neueren PCs laufen lassen, weil niemand die notwendigen treiber macht. usw.usf. Der hersteller erklärt knallhart "wird nicht mehr unterstützt", alle plappern es ihm nach und auch in vielen anderen, herstellerunabhängigen bereichen wird unter diesem vorwand alles daran gesetzt, das bisherige aus dem allgemeinen gebrauch zu vertreiben, obwohl es vielfach noch an sich gut brauchbar ist, ja gar manchmal unumstrittene vorteile gegenüber den nachfolgern besitzt, zur erhaltung unabdingbarer werte unverzichtbar ist. Auch im SW-bereich gibt es einiges im umfeld von Windows 7, was mit vorgänger-SW nicht recht kompatibel ist, ältere dokumente können zt. nicht richtig gelesen, geschweige denn ohne komplizierte anpassungen verarbeitet werden. Und solches vorgehen als "inovationsfreudigkeit" schönzureden ist kaum mehr als dem business dienender, billiger zweckoptimismus. Vrursacht bei den anwendern immense kosten, um bei den am längeren hebel sitzenden herstellern einsparungen zu bringen bzw. um umsätze zu sorgen. Igendwann früher oder später rächt sich solches vorgehen an der allgemeinheit arg. Ein "alter zopf" steht nicht selten auch für stabiltät und verlässlichkeit, die wirklich gold wert sein kann. Statt ständige hetze nach neuem, was zwar eine relative, partielle verbesserung bringen kann, jedoch kaum einen längerfristigeren - wenn überhaupt welchen - bestand hat und wichtige nachhaltige entwicklungen, die ruhe und zeit benötigen, be- oder gar verhindert. Es ist keine nachhaltige lösung, die nach schaffung neuer kompatibilitäten verlangt, welche gleichzeitig die alten, noch unverzichtbaren aufheben. Alfällige ansätze für ersatzlösungen pflegen hier nur sehr halbherzig zu sein, machen den eindruck mangelndes verständnisses für die materie, haben oft den charakter einer reinen nutzlosen alibiübung. -- 8ohmSpeaker 03:55, 14. Jun. 2011 (CEST)Beantworten
Es galt sehr lange Zeit und bis zu einer gewissen Zeit auch heute. Mindest bis zu den Pentium-Nachfolgern gab es ISA-Steckplätze. Dazu bei 486 ein VESA-Slot für die Grafikkarte. EISA gab es eigentlich nur bei Servern und Hochleistungs-Workstation. Ab Pentium kam dann PCI dazu, IDE-Schnittstelle war meist schon OnBoard. Mit dem Pentium-Nachfolgern kam auch der ATX-Faktor mit neuem Netzteil, meist schon ohne ISA. IDE immer onboard, Soundkarte meist, manchmal schon Netzwerkanschluss. Heute ist das alles onboard, ISA-Steckplätze sind nicht mehr zu finden, PCI auch immer seltener dafür PCI-E. (Weshalb manchmal für existierende Spezialanwendungen mit speziellen Karten und/oder Programmen alte funktionstüchtige PCs gesucht werden, wenn der alte eingeht.) 64Bit-PCI ist mir eigentlich nie untergekommen.
Es gab aber meist eine Zeit lang zwei verschiedene Technologien auf einem Board bei vielen Herstellern, eine Übergangszeit wenn es nur irgendwie möglich war. Es war nie so, dass es einen eindeutigen Bruch gab und ein System plötzlich das andere ersetzte. (Ich habe sogar ein AT-Motherboard mit AT- und ATX-Stromanschluss.) Anders bei PS/2 wo Microchannel ISA ablöste, 3,5 FDD die 5,25 FDD, VGA den EGA, Mini-Din-Tastatur den DIN und Standardmäßig Mini-DIN statt seriell für die Maus. Die serielle konnten sie nicht ganz abschaffen. Gerade noch den Drucker konnte man vom alten System verwenden, alles andere musste ersetzt werden. Für den Datentransfer gab es einen Vorläufer zu Laplink dazu (RECV35.COM & COPY35.COM) [1].
Auch gab es schon eine Zeit lang USB bevor die PS/2-Schnittstelle verschwand. Und seit Windows 2000 bootet man die Installation von der CD (wobei man für die HDD-Treiberinstallation während der Installation noch zwingend ein Diskettenlaufwerk brauchte, wo man dann in einen SLIM-19"-Server vorübergehend eines anschließen musste. Der Anschluss war noch da.) Seit XP/W2k3 geht alles von CD und die privaten Daten (Bilder, Videos) haben eine Menge und Größe erreicht, dass sie nicht mehr auf FDD passen und diese daher ungenutzt sind. CD/DVD-Writer mit InstantBurn und vor allem USB-Sticks sind schon weit verbreitet. Aber es gab eine Zeit lang beides. Es gab auch Boards mit ATA und SATA.
In Macs gibt es schon lange Zeit keine FDDs mehr, ich glaube seit iMac. Den seriellen Apple Local Bus hatte der glaube ich auch nicht mehr. SCSI wurde durch IDE ersetzt. Wobei man auch sagen muss, dass es sich dabei um Komplettrechner handelt, wo auch beim PC Abstrichte zu machen sind. --Franz (Fg68at) 15:52, 9. Mär. 2014 (CET)Beantworten
Ersetze innovationsfreudiger durch kundenfeindlicher, dann stimmt es. Also so:
[quote]
"Andere Systeme (z.B. Apple) waren und sind wesentlich kundenfeindlicher und trennen sich regelmäßig von alten Zöpfen."
[/quote]
Der Apple Nutzer musste jetzt schon 4 mal seine Software neu kaufen. Zuerst für den Motorola 68000, dann für den PowerPC, dann hat der PC gewonnen und der Mac sprach x86. Und jetzt muss er die Software schon wieder für die ARM Architektur (Apple M1) neu kaufen. Auf einem modernen PC dagegen kann man direkt auf dem Prozessor nativ, aber unter Verwendung einer virtuellen Maschine mit emuliertem BIOS immer noch DOS und Programme für DOS ausführen. Auch Windows 3.1 und Windows 95 sind möglich. Auch Windows NT Programme aus dem Jahr 1993 laufen dank gleicher Prozessorarchitektur immer noch unter einem modernen Windows.
Und wenn man noch den Apple II dazu zählt, dann musste auch die Software für den Wechsel vom MOS 6502 zum Motorola 68K neu gekauft werden, damit wäre es dann 5 mal. Okay, so ganz fair ist das nicht, immerhin hatte auch IBM viele verschiedene Modelle vor dem IBM PC, aber wenn man beim Macintosh bleibt und beim IBM PC anfängt, dann sind es eben beim Macintosh 4 Wechsel und beim PC kein einziger. Ja, das A20 Gate flog raus, das BIOS wurde durch UEFI ersetzt und Intel plant sich vom 16 Bit Real Mode zu verabschieden, aber noch läuft letzterer auf aktuellen CPUs und das A20 Gate und BIOS kann man bei virtuellen Maschinen durch Software ersetzen. Das A20 Gate war ohnehin kein Teil der CPU, sondern des Tastaturcontrollers. Und mal Hand aufs Herz, wozu war der Wechsel bei Apple von der x86-64 Architektur zu M1 nötig, wenn es jetzt schon schnellere Prozessoren in der x86 Welt als der neuste M1 gibt? Den Schritt hätte sich Apple also auch sparen können, den Kunden kann man nur bedauern, aber er ist letzten Endes selbst schuld, er hätte sich ja auch einen gescheiten PC kaufen können. --84.158.123.253 17:48, 18. Sep. 2023 (CEST)Beantworten

IBM 300PL[Quelltext bearbeiten]

Und was ist mit dem legendären IBM 300PL, der auch nach diesem konzept gebaut ist, bis über die jahrtausendwende in immensen stückzahlen produziert wurde (Pentium MMX bis Pentium III) und viele von gross- bis kleinunternehmen damit ausgestattet wurden? Ebenfalls von Dell und Compaq gibt es geräte mit diesem mechanischen grnudkonzept, obwohl im bezug auf die mainboard und mechanische netzteilausführung nicht untereinander kompatibel. -- 8ohmSpeaker 03:55, 14. Jun. 2011 (CEST)Beantworten

PS/2 in der Computerwoche[Quelltext bearbeiten]

Bei der Recherche nach anderem kamen mit nicht lizensierte Chipsätze für Microchannel unter. Jetzt habe ich etwas nachgeforscht: Schließlich hat jeder doch Lizenzen gezahlt oder wäre bereit gewesen sie zu zahlen. Denn bis die Anmeldung der Patente durch war wusste niemand was sie beinhalten und wofür er zahlen soll und IBM sagte auch, dass sie erst kassieren wenn die Patente durch sind. Zusätzlich gab es eine zweite Firma, die ein Patent über eine verwendete Speichertechnik hielt. Und IBM verlangte rückwirkend Lizenzen von den PC-Clonern. Um alles in chronologischer Reihenfolge zu haben ist dieses zeitgenössische Linkarchiv über PS/2-Berichte entstanden. Zusätzlich ein wenig OS/2 und EISA. die ja direkt mit PS/2 und Microchannel verknüpft sind. --Franz (Fg68at) 02:10, 13. Mär. 2014 (CET)Beantworten

1987

1988

1989

Der Artikel mit dem Interview mit Bill Gates vom 1989-10-20 ist wirklich sehr interessant aber nicht nur historisch, sondern er spricht da etwas an, das auch jetzt RISC-V Prozessoren betreffen würde. In dem Artikel meine ich insbesondere die 3 Abschnitte mit dem "Commodity Computing" und den Unix Systemen. RISC-V ist im Prinzip nichts anderes als wie damals, wo jeder seine eigene Hardware erstellte, mit dem Unterschied, dass diese Änderungen nun auf der Chipebene stattfinden. Daher ist die Aussage von Bill goldwert, auch heute noch.

PS/2 "Namensgebung"[Quelltext bearbeiten]

Im Artikel steht: "An die PS/2-Systeme erinnern heute noch die gleichnamigen PS/2-Anschlüsse für Eingabegeräte, die aus Gründen der Kompatibilität lange Zeit auf jeder Hauptplatine zu finden waren, aber mittlerweile durch USB verdrängt wurden. Ebenso die Bezeichnung eines Arbeitsspeicher-Sockels „PS/2 SIMM“, welcher in den meisten 486er- und Pentium-Systemen Verwendung fand, sowie der lange Zeit übliche (durch HDMI und DVI abgelöste) VGA-Anschluss für den Monitor ..." Das stimmt zwar soweit, mich stört jedoch das "gleichnamige", denn es suggeriert, dass die Anschlüsse wirklich so hießen. Der "PS/2 Maus- und Tastaturstecker" ist jedoch ein Mini-Din 6 und der "VGA-Anschluss" ein DE-15. --Bierbauch (Diskussion) 20:15, 19. Jan. 2017 (CET)Beantworten

Ich habe die Stelle soeben bearbeitet. Dir geht es wohl um die fachlich korrekten Bezeichnungen? Die Anschlüsse werden zumindest im allgemeinen Sprachgebrauch aber so genannt (darum lauten die Lemmas auch entsprechend). Ich kann vielmehr nicht nachvollziehen, wo der konkrete Zusammenhang vom VGA-Anschluss zu PS/2 sein soll, sodass dieser an das PS/2 erinnert. Bei den 3,5-Zoll-Disketten war die Aussage schlicht falsch. PS/2 war lediglich eines von vielen Systemen, die dieses schon 1981 von Sony vorgestellte Format verwendeten und natürlich nicht das erste. --Gamba (Diskussion) 09:24, 4. Aug. 2020 (CEST)Beantworten
Beim PS/2 Maus- und Tastaturstecker geht es nicht nur um den Stecker, sondern auch um das verwendete Protokoll. Die Bezeichnung PS/2 Anschluss für Tastaturen und Mäusen war daher üblich und ist es immer noch. Den Begriff Mini-Din 6 nutzt keiner als Bezeichnung für derartige Computerperipheriegeräte. Zudem sind PS/2 Tastaturen immer noch nicht tot, weil sie aus Sicherheitsgründen dem USB Bus in Unternehmen vorgezogen werden. Aus dem Grund gibt es auch heute noch viele Mainboards, die über einen PS/2 Anschluss für mindestens die Tastatur verfügen. --84.158.123.253 17:57, 18. Sep. 2023 (CEST)Beantworten
Kann man nicht mit einem Y-Kabel am selben PS/2-Anschluss auf dem Mainboard sowohl PS/2-Tastatur als auch -Maus nutzen?
Andreas 18:42, 18. Sep. 2023 (CEST)Beantworten
Ich vermute mal, dass diese Frage im PS/2-Schnittstelle Artikel beantwortet wird. Der Mausanschluss dürfte aus Kostengründen also zwecks Einsparung weggelassen werden und weil moderne Mäuse mehr Features haben und dafür dann USB brauchen. --84.158.123.253 20:54, 18. Sep. 2023 (CEST)Beantworten
Naja, wenn es um die Sicherheit geht, ist es eigentlich egal, ob man eine USB-Tastatur oder eine USB-Maus anschließt...
PS/2 ist wohl eher wegen n-key rollover bei Gamern beliebt, die dann unzählige Tasten gleichzeitig im Spiel verwenden können. Siehe en:Key rollover. ‣Andreas 00:12, 19. Sep. 2023 (CEST)Beantworten
Nein, denn eine Maus ist nur ein Zeigergerät. Die USB Gerätegruppen lassen sich gezielt per Gruppenrichtlinie blockieren. Siehe dazu folgender Artikel. Bleibt also noch die Tastatur als Gefahr übrig, denn über sie könnte man automatisiert Skripte in den Rechner "tippen" lassen und ausführen, das tippen macht dann natürlich ein Mikrocontroller, der als Tastatur am USB Bus angeschlossen und als USB Tastatur erkannt wird. Sollte ein Internetzugang bestehen, dann wäre auch das Nachladen von Schadcode möglich. Deswegen verbietet man auch die Tastaturgerätegruppe und verwendet nur PS/2 Tastaturen. Und das ist auch der wesentliche Grund, warum es immer noch Mainboards mit PS/2 Anschluss gibt und warum diese zumindest bei Officerechnern nicht aussterben werden. Bei der einfachen USB Maus ist es hingegen egal, sie ist nur ein Zeigergerät und kann daher keinen Schadcode einschleusen. Es muss also nur die USB Geräteklasse für Zeigergeräte offen gelassen werden, der Rest wird blockiert. --84.158.123.253 11:41, 19. Sep. 2023 (CEST)Beantworten
Ja, das mit den Key rollover ist mir bekannt. Das wäre die Erklärung dafür, warum auch Mainboards für Gamer manchmal noch einen PS/2 Anschluss für die Tastatur haben. --84.158.123.253 11:43, 19. Sep. 2023 (CEST)Beantworten
Stimmt. Wenn man die USB-Klasse "Tastatur" ausschließt, ist die größte Gefahr gebannt. Natürlich kann die USB-Klasse "Zeigergerät" immer noch was anrichten, aber das sollte wesentlich schwieriger sein, und außerdem sichtbar.
Das mit den PS/2-Anschlüssen ist war, viele Desktop-Mainboards haben noch einen solchen Anschluss für eine PS/2-Tastatur.
Andreas 14:25, 19. Sep. 2023 (CEST)Beantworten
Da man für eine Privilegienerhöhung bei Windows zumindest das Passwort eingeben muss und die meisten Systemfunktionen ohne dieses nicht zugänglich sind, kann ein Zeigergerät allein kaum etwas ausrichten. Das schlimmste wäre hypothetisch betrachtet die Dateien des Nutzers zu löschen, aber dafür hat eine Firma ja Backups und die Daten liegen ohnehin auf Servern. Aber selbst dafür ist die Wahrscheinlichkeit extrem gering, weil beim blinden Steuern mit der Maus keine Möglichkeit besteht zu wissen, wo der Zeiger sich befindet. Es fängt schon mit der unterschiedlichen Beschleunigung der Maus an, was dazu führt, dass der Zeiger sich unterschiedlich weit bewegt. Und da hört es nicht auf, denn bei der Bildschirmauflösung geht es weiter, der Angreifer wird also nicht wissen, wo sich der Button für den nächsten Schritt befindet. Er weiß nicht einmal, ob die Programmicons im Programmmenü, der Leiste und Co. die gleiche Anordnung haben. Daher geht dieses Angriffsszenario gegen Null. Bei der Tastatur ist es etwas anderes, da ist ein sehr diskreter gezielter Angriff möglich. --84.158.123.253 16:22, 19. Sep. 2023 (CEST)Beantworten
Wenn die Maus manipuliert ist, steuert sie selbstverständlich die Zeigergeschwindigkeit "richtig", z.B., indem sie unter der in Windows einstellbaren "Mindestgeschwindigkeit" bleibt. Auch kann die Maus einfach unterschiedliche Szenarien (Geschwindigkeiten, Bildschirmauflösungen) durchprobieren. Viele Windows-Installationen sind gleich, das Startmenü ist beispielsweise immer links unten. Und es gibt ja auch noch die Bildschirmtastatur (On-Screen Keyboard, OSK).
Siehe z.B. auch Yes, even a mouse can infect your network, obwohl da nicht steht, ob die Maus sich einfach als Tastatur ausgibt, was aber am wahrscheinlichsten ist. Oder hier zum OSK: Does the use of an on-screen keyboard give a false sense of security or protect against all types of keyloggers? [duplicate] Dass eine manipulierte USB-Maus nicht immer über das HID-Protokoll eine Tastatur nachahmen muss, sondern einfach einen USB-Massenspeicher, der dann das System mit Malware infiziert, ist aber auch amtlich. Netragard’s Hacker Interface Device (HID). You can get hacked by your mouse. Klar, das war 2011 -- und in Windows sind diese Autorun-Funktionen lange abgeschaltet/abgedichtet. Aber was ist mit dem Protokoll selbst? Sicherheitsrisiko USB+Thunderbolt 3? Warum Nutzer jetzt handeln müssen...
Solange es "Komfort" gibt, wird es auch kleinere und größere Sicherheitslücken geben, an die beim Einführen des gewünschten Komforts keiner gedacht hat.
Aber das ist alles kein Grund zur Panik, denn, ja, die Wahrscheinlichkeit, dass auch eine USB-Maus was anrichtet, ist extrem gering. Wer steckt schon an seinem Arbeitsplatzrechner eine "fremde" Maus/Tastatur an? Hoffentlich auch keinen USB-Stick, den man irgendwo gefunden hat, doch das Herumreichen dieser Datenspeicher macht diese weit gefährlicher als Tastaturen und Mäuse. Das Abschalten des HID-Protokolls für "fremde" (oder alle, wenn man PS/2 nutzt) Tastaturen ist sicher ein Schritt in Richtung mehr Sicherheit, und verhindert dann auch gleich "BadUSB", siehe etwa BadUSB: Wenn USB-Geräte böse werden oder USB-Sticks – Eine Gefahr auch für den Mac?
Andreas 21:19, 19. Sep. 2023 (CEST)Beantworten
Das kann sie nicht, weil die Geschwindigkeit und der Beschleunigungsgrad in Windows eingestellt wird und die Maus das auch nicht abfragen kann. Keine Chance, sie weiß nicht einmal, an welcher Position sich ein Fenster öffnet. Und davon wäre auch die Bildschirmtastatur betroffen.
Zu
"Dass eine manipulierte USB-Maus nicht immer über das HID-Protokoll eine Tastatur nachahmen muss, sondern einfach einen USB-Massenspeicher, der dann das System mit Malware infiziert, ist aber auch amtlich"
Genau deswegen werden die USB Geräteklassen ja auch alle blockiert, da gehen dann nur das Zeigergerät Maus, Stift und Co.. Und selbst das ließe sich noch weiter auf die Hersteller ID usw. einschränken, zumindest unter Linux. Man schaltet nicht nur Geräte mit HID Protokoll ab, sondern gerade auch die Massenspeicherklassen. Es bleibt also dabei, die PS/2 Tastatur bringt die Sicherheit, während man die USB Maus benutzen kann. --84.158.123.253 14:30, 20. Sep. 2023 (CEST)Beantworten