Diskussion:Eignungstest für das Medizinstudium in Österreich

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 3 Jahren von MrBurns in Abschnitt Abschnitt über Genderunterschiede aktualisieren
Zur Navigation springen Zur Suche springen

Logik[Quelltext bearbeiten]

Eignungstest für das Medizinstudium in Österreich bzw EMS-AT sind wie EMS, TMS oder MedAt mit ihren Langnamen sowas wie Markennamen für Tests. Dieser Artikel beschäftigt sich nur mit ersterem und war ursprünglich nur als Auslagerung der ganzen heissdiskutierten Genderei gedacht. Die Erwähnung des MedAt in der Einleitung erfolgte nur als Anregung aus dem LA heute, Missverständnisse zu vermeiden, er würde noch genommen. Der MedAt müsste unter seinem Langnamen dann noch einen eigenen Artikel bekommen. Die nennen das übrigens bewusst "Aufnahmeverfahren", weil da noch anderes dazugehört. Dieser Lemmaname für das heutige also gar nicht richtig. Und wenn man was übergreifendes schreiben will, bietet sich Zulassung zum Medizinstudium in Österreich oder ähnlich an. Da kann man dann die politischen Dinge hin auslagern. Bitte ggf. vor Änderungen diskutieren. Brainswiffer (Disk) 15:05, 13. Aug. 2016 (CEST)Beantworten

Verweis[Quelltext bearbeiten]

Darauf möchte ich auch hier verweisen. -- Brainswiffer (Disk) 09:55, 30. Sep. 2018 (CEST)Beantworten

Grundsätzliches[Quelltext bearbeiten]

Der Artikel hat eine Reihe von grundsätzlichen, nicht ohne weiteres zu heilenden Problemen.

Erstens kann er sich nicht entscheiden, was er darstellen will. Ist es ein Artikel über einen Studierfähigkeitstest, der ein paar Jahre lang in Österreich angewendet wurde (dann gehört der Inhalt in den vorhandenen Artikel über diesen Test), oder ist es ein Artikel über die Konfliktgeschichte der Zulassung zum Medizinstudium in Österreich generell (dann ist er grob unvollständig), oder ist es ein Artikel über Eignungsunterschiede von Männern und Frauen? Es fehlt ein brauchbares Konzept.

Zweitens stellt er selbst die genutzten Quellen sehr selektiv dar. Das Gutachten von Spiel u.a. hat sehr viel konkretere und durchaus auch für eine allgemeine Enzyklopädie relevante Hinweise zu den Problemen der Messbarkeit gegeben, unter anderem etwa zu der Frage, ob nicht die Konzentration auf SIP-1 als Erfolgskriterium irreführend und selbst gender-selektiv ist. Das ist ja eine plausible Kritik daran, dass der EMS das Konstrukt Studieneignung tendenziell verfehlen könnte, weil er die konkreten unterschiedlichen Umgangsweisen mit dem Prüfungswesen nicht berücksichtigt (vielleicht seiner Anlage nach auch nicht berücksichtigen kann). Ich bin nicht der Meinung, dass man diese Kritik "übernehmen" muss, aber darzustellen wäre sie sehr wohl.

Drittens hat er ein Neutralitätsproblem. Es lässt sich recht gut an einigen Sätzen im Artikel erkennen: "Zahlreiche Ergebnisse sprechen dafür, dass die Genderdifferenzen im Test auf objektiven Eignungsunterschieden beruhen." "Dies bedeutet aber auch, dass die festgestellten Unterschiede im Test selbst nicht überraschend sein sollten." "Dass der EMS chancengleich nach gleicher Eignung zulässt und die Unterschiede nicht testbedingt sind, zeigt sich weiterhin ..." All diese zusammenfassenden, leserführenden Sätze lassen sich nicht aus den angegebenen Quellen ableiten. Hier spricht der Artikelverfasser, der zwar von einer Debatte spricht, deren Ergebnis aber aus seiner Warte vorwegnimmt. Die Debatte geht ja gerade um die Frage, ob der EMS "chancengleich nach gleicher Eignung" zulässt. Der Artikel kann und soll als Wikipedia-Artikel diese Frage eben nicht beantworten, tut es aber unentwegt.

Viertens hat er ein Quellenproblem: Belege wie eine Presseaussendung der Österreichischen Hochschülerschaft, ein kurzer journalistischer Bericht über eine Studie ("Eder"), die nicht einmal angegeben wird, Foren wie nextdoc und Webseiten wie studium.at ("Hörsaal Advertainment GmbH") sind für die zu belegenden Sachverhalte völlig ungeeignet (und zudem oft nicht mehr erreichbar).--Mautpreller (Diskussion) 11:04, 2. Okt. 2018 (CEST)Beantworten

Wirklich an zwei Stellen? Ab hier wurden viele Fragen kilometerlang schon diskutiert.
Erstens: war hier gedacht, die Spezifika in Östereich darzustellen. Was der Test ist, wird auf den Artikel Eignungstest für das Medizinstudium verwiesen und beide gehören zusammen (thats a Wiki :-)
Zweitens: Spiel wurde hier zu den Spezifika in Österreich imho korrekt und unverzerrt dargestellt. Zu den allgemeineren Fragen gibt es eine offizielle Stellungnahme des ZDT (was man Reply nennt), wo auf krasse methodische Mängel und die Verabsolutierung der probabilistischen Testtheorie, die sie favorisiert hingewiesen wurde (die hat sich auch im Leben noch nicht wirklich durchesetzt). Wegen dieser methodischen Mängel wurde dies bisher nicht im Hauptartikel dargestellt. Wenn sich jemand die Mühe macht, dann OK, aber immer mit Reply.
Studierfähigkeitstests, die den Studienerfolg messen, sollen sich bitte woran sonst orientieren, ausser den Noten? Die entscheiden über Fortkommen oder Durchfallen und sollen vorhergesagt werden. Wenn die einen Bias hätten, muss der zuerst dort behoben und dann das Prognoseinstrument geändert werden. Der Test muss ansonsten den Prüfungserfolg so vorhersagen, wie er ist - und nicht, wie er gerne wäre.
Wenn Du zwischen Deiner breits ausführlich anderswo kundgetanenen Meinung und dem, was dazu wirklich in den Quellen steht, underscheidest, kann man das aber shcon aufnehmen. Das ist aber nicht so einfach - und das weisst Du ja auch aus den Artikeln in der Ärztezeitung bereits :-) Imho gehört das auch mehr in den Artikel Studierfähigkeitstest, weil das nicht spezifisch für den EMS ist.
Drittens: Wenn du zählst, was nachfolgend dargestellt ist, ist das richtig. Du und ich sind nicht neutral :-) Wie anderswo geschrieben, wäre ein vorwurfsfreies konstruktives Ringen um die ausgewogene Formulierung jetzt angesagt (und schon damals, da interessierte das aber nur mich). Und ich nehme nichts einer Debatte vorweg, sondern gebe sie so wieder, wie ich sie seinerzeit erlebt habe - weil ich dabei war :-) Das kann ein Problem sein, muss es aber nicht. Dennn...
Viertens musst Du hier dann auch mal nachweisen: Welche Quellen wurdne unterschlagen? Welche Quellen wurden verfälscht für den jeweiligen Sachverhalt dargestellt? Eder ist ordentlich nach einer Sekundärquelle dargestellt - so wie wir es wollen (auch, weil das Original nicht online ist). Foren kannst Du gern löschen, wenn die Dir irrelevant scheinen - mir damals nicht.
Fünftens von mir: Es ist mühsam zwischen uns deshalb, weil wir einerseits eine konstruktive Diskussion führen, wo ich noch nirgends konkrete und Bestand habende Hinweise auf Verfälschungen oder Unterschlagungen irgendwelcher Quellen gefunden habe. Was man wo darstellt, kann man diskutieren - also Österreich hier, was auch mal Streitpunkt war. Wie auch sonst gibt es auch normal eine Varianz, was ein Autor wichtig findet und was nicht und wenn zwei zum gleichen Thema schreiben, kommt nicht das Gleiche raus. Wenn Du also auf solche vorwurfsvollen Generalsierungen aus der Hüfte verzichten würdest, solange Du nichts wirklich "Verwerfliches" findest, wäre ich Dir sehr dankbar. -- Brainswiffer (Disk) 11:36, 2. Okt. 2018 (CEST)Beantworten
Ich frage jetzt schon zum wiederholten Male: Welche Studie ist im Fall von Eder gemeint? Darf ich davon ausgehen, dass Du sie irgendwann auch auf einer beliebigen Diskussionsseite angibst? Es ist vor allem mühsam, weil Du ganz konkrete Fragen nicht beantwortest. Zu Spiel: Du weißt doch, dass es darum ging, dass speziell die erste Zwischenprüfung ein problematisches Erfolgsmaß für "Studieneignung" ist. Ich hab das meines Erachtens hier eigentlich klar und deutlich formuliert. Warum bringst Du jetzt so einen Rundumschlag? Natürlich gibt es verschiedene Maße für "Studienerfolg", sowohl Prozess- als auch Ergebnismaße, das weißt Du doch selber, wahrscheinlich weit besser als ich. --Mautpreller (Diskussion) 11:48, 2. Okt. 2018 (CEST)Beantworten
PS: Ich schreibe das hier, weil es sich auf diesen Artikel bezieht. Es könnte ja noch jemand mit Interesse an diesem (und nicht dem anderen) Artikel hinzustoßen. Es sollte auch auf der Diskussionsseite erkennbar sein, dass gegen Form, Inhalt und Aufbau dieses Artikels Einwände bestehen.--Mautpreller (Diskussion) 12:36, 2. Okt. 2018 (CEST)Beantworten
Eder hat keine Quelle? ORF ist das sogar noch da. Mehr weiss ich auch nicht. Und da wir so viel schreiben: mach konkrete Fragen deutlich, wo du Antwort willst. Die gehen in rhetorischen Fragen sonst unter. Ich weiss nichts davon, dass die SIP-1 ein problematisches Erfolgsmass ist, weil das einzige relevante. Dort fliegen die meisten durch und das will man prognostizieren. Das sagte ich aber anderswo schon. Das die Probleme hat, ist was anderes und gehört in den Artikel zu dieser Prüfung. Hier gehts um den Ems. Ich wäre dafür, langsamer, strukturierter und an einer Stelle. -- Brainswiffer (Disk) 13:24, 2. Okt. 2018 (CEST)Beantworten
Gibts ja nicht. Du verlässt Dich allen Ernstes auf einen kurzen ORF-Bericht, ohne auch nur zu wissen, um was für eine Studie es da geht? Kaum zu glauben, aber anscheinend wahr. Muss ich eben selber suchen.--Mautpreller (Diskussion) 13:47, 2. Okt. 2018 (CEST)Beantworten
ORF ist eine edelquelle und die Sache mit wörtlichen Zitaten gespickt. Es gibt keinen Grund die Fakten anzuzweifeln und das wird als Prüfung verlangt, mehr nicht. Und ich hab damals auch nicht mehr gefunden. Verzichte doch einfach darauf, deine eigenen Regeln als universell anzusehen und dann über alle, die dem nicht folgen, so moralisierend zu urteilen. Deswegen trau ich dir auch nicht wirklich über den Weg, ob dein Ziel die Verbesserung des Artikels oder irgendeine Kriminalisierung des Autors ist ;-) Das sollten wir trennen und im Zweifel erst das zweite klären -- Brainswiffer (Disk) 14:14, 2. Okt. 2018 (CEST)Beantworten
Eine Kriminalisierung will ich nicht, davon halte ich gar nichts. Kriminell ist da auch nichts. Aber ganz lässt sich das Interesse an einem besseren Artikel und die Kritik an unsauberem Editieren halt auch nicht trennen. Ich würde niemals, aus reichlicher Erfahrung mit Wissenschaftskommunikation, einem journalistischen Bericht über eine wissenschaftliche Studie über den Weg trauen, wenn ich nicht wenigstens wüsste, auf welche Studie sich das bezieht, und sie im Ernstfall nachlesen könnte. Hab dazu zu viele erschütternde Erlebnisse mit druchaus sehr seriösen Publikumsmedien gehabt. Es kommt eben vor, dass ein Artikel in einer großen deutschen Tageszeitung eine "Studie über Rechtsextremismus bei Arbeitslosen" vorstellt, obwohl die Studie was völlig anderes untersucht hat und nur auf den letzten zwei Seiten über mögliche Gefährdungen durch rechtsextremistische Einflüsse spekuliert wird. Und wenn man eine halbe Stunde mit jemand redet, kriegt man zu allen möglichen Sachen wörtliche Zitate. Das reicht definitiv nicht. - Meine Vermutung ist, dass man bei Eder/Hörl: Schule auf dem Prüfstand, Lit, Wien 2010 fündig werden könnte. Zumindest das Untersuchungsfeld dürfte stimmen.--Mautpreller (Diskussion) 14:25, 2. Okt. 2018 (CEST)Beantworten
Ich bin da nur bei bestimmten Themen weniger leichtgläubig. Damals hab ich den großen Medien bei fachthemen geglaubt, wenn es plausibel war. Solche Interviews werden in der Regel autorisiert und die Thematik ist vergleichsweise einfach. Vielleicht würde uns schon helfen, dass etwas nicht unsauber sein muss, was du aufgrund deiner eigenen offenbar sehr strengen Kriterien subjektiv so siehst? Sag einfach du findest, statt es ist. Dieser ganze fakenewspolitikvollscheiss ist eine Erfindung der Neuzeit, damals hat man sich und anderen noch geglsubt, was wir AGF nennen. ;-) -- Brainswiffer (Disk) 14:42, 2. Okt. 2018 (CEST)Beantworten
und wenn ich an dem artikel noch hängen würde, gabs jetzt einen Editwar. Einige deiner Entfernungen sind sehr hemdsärmelig. Behutsamer und vorher fragen wäre besser. Nicht nur Ich bescheinige Dir nun andernorts mangelnde Neutralität. Wir sind dabei, wie Honeypot entsteht :-) Was da steht, passt Dir nicht und dann ändert du das in deine Richtung. Deswegen war ich immer der Meinung, dass das gar nicht immer bewusst und bösartig ist, sondern menschlich ;-) -- Brainswiffer (Disk) 22:03, 2. Okt. 2018 (CEST)Beantworten
So? Ich hab vor allem mal die zahlreichen Totlinks rausgeschmissen und die bereits oben genannten klaren NPOV-Verletzungen beseitigt, damit man überhaupt einen bearbeitbaren Text hat. An welcher Veränderung hast Du denn etwas auszusetzen? --Mautpreller (Diskussion) 22:17, 2. Okt. 2018 (CEST)Beantworten
Eigene Meinung hab ich hier nun gar nicht eingebracht, lediglich Unbelegtes gestrichen. Ich werde noch eine Veränderung vornehmen, nämlich endlich den kaputten Link zur ZTD-Stellungnahme reparieren. Was ich aber tatsächlich gern diskutiert hätte, ist dies: "Die bessere Beurteilung kann sich auf die Selbsteinschätzung der eigenen Leistungsfähigkeit verzerrend auswirken und auch das Studienwahl-Verhalten derart beeinflussen, dass die höheren mathematisch-naturwissenschaftlichen Anforderungen eines Medizinstudiums unterschätzt werden." Das ist ganz sicher nicht Eder (ich habe gerade in seinem Bildungsbericht 2009 geblättert) und es ist wohl auch nicht Empirie, eine Quellenangabe fehlt. Ist meines Erachtens bloße und wahrscheinlich empirisch sogar leicht widerlegbare Spekulation (dass Selbstkonzepte und Selbstwirksamkeitserwartungen von Mädchen höher wären als die von Jungen, hat nun noch niemand behauptet). Diesen Satz möchte ich streichen.--Mautpreller (Diskussion) 22:24, 2. Okt. 2018 (CEST)Beantworten
wie man amtlich mit Totlinks umgeht, weisst du aber? Und erst links rauswerfen und dann als PoV den Text ist lustig und zu bekannt. Wenn du die orf Quelle rauswirfst, wo das meines Erachtens stand - und die hatte ich heute ja extra noch nachgeschaut - ist das klar. Dir fehlt die Demut vor dem Thema ;-) Man muss nicht nur andere in Frage stellen, sondern immer mal auch sich selbst. Stell alles regelkonforme mit den Toten links wieder her und wenn du nichts findest, frag mich. Dann gerne wieder inhaltlich und bitte einzeln. Heut geh ich aber ins Bett. Gute Nacht -- Brainswiffer (Disk) 22:34, 2. Okt. 2018 (CEST)Beantworten
Die ORF-Quelle ist drin, die ist (halbwegs) in Ordnung. Ich habe a) nicht reparable Totlinks gelöscht, b) Quellen, in denen der zu belegende Inhalt nicht mal erwähnt wurde (Scheinbelege), c) archivierte Forenlinks, die als Quelle generell nicht akzeptabel sind. Andere Totlinks habe ich lediglich richtiggestellt.--Mautpreller (Diskussion) 22:38, 2. Okt. 2018 (CEST)Beantworten
Nur eine Anmerkung zur "Eder-Studie": Ich glaube, das muss "Schule auf dem Prüfstand" sein. Darauf weist der Schlusssatz der ORF-Meldung nämlich hin: "Die Ergebnisse der Untersuchung betreffen die siebente und achte Schulstufe in Hauptschulen und Allgemeinbildenden Höheren Schulen (AHS)." Das war der Gegenstand dieser Studie. Ich habe aber ein einschlägiges Kapitel von Eder im Bildungsbericht 2009 gefunden (https://www.bifie.at/wp-content/uploads/2017/05/2009-06-16_NBB-Band2.pdf, S. 259). Dort geht es um "Leistungsfeststellung und Leistungsbeurteilung". Eder äußert sich generell kritisch gegenüber den Leistungsbewertungen insbesondere durch Noten, hat allerdings auch an den PISA-Tests als punktuellen Tests etwas auszusetzen. Mädchen bekommen, wie er schon unter Verweis auf frühere Studien feststellt, tendenziell bessere Noten als Jungs, zumindest in den Schularbeitsfächern Deutsch, Englisch und Mathematik. Bei den Mathetests aus PISA (das sind die "direkt gemessenen Mathematikleistungen", also nicht eigentlich die Schulleistungen) haben Jungs jedoch einen deutlichen Vorsprung, bei von den Lehrern vorgenommenen Kompetenzbeurteilungen sind sie nur noch knapp vorn, in den Noten sind die Mädchen knapp vorn. Er gibt zu bedenken: "Es ist daher nicht zu erwarten, dass Noten das Leistungsniveau der Schüler/innen angemessen wiedergeben ... Zugleich erscheinen aber einmalige, objektive Messungen, wie sie mit Schulleistungstests erfolgen, weniger reliabel und valide als Beurteilungen, die sich auf eine Vielzahl von Beobachtungen stützen." (258) Nur zur Einordnung.--Mautpreller (Diskussion) 23:20, 2. Okt. 2018 (CEST)Beantworten

Wir spielen beide Jeckyll und Hyde? :-) Erst der Hyde: Natürlich fuktioniert das nicht so, dass Du Deine Meinung direkt einbringst. Der Honeypot funktioniert so, dass die schlechten Trauben vor allem gesucht und (bewusst oder unbewusst ist noch die Frage) überrepräsentiert werden. Und dann wird der Wein natürlich sauer :-)

Das ist wesentlich und nun gelöscht :-) Wenn sich immer noch nur die Leistungsbesseren für Medizin bewerben und Männer zu Frauen 50:50 sind und die Eignung auch normalverteilt ist: Bewerben sich aus einer Gruppe 60%, muss nun mal der Mitelwert für Eignung geringer sein. Ob das nicht in der vorher gelöschten Quelle stand, weiss ich jetzt nicht. Das steht 100% auch anderswo und da muss man an den Quellen arbeiten, nicht den Gedanken löschen. Denn einige erwarteten da eine Mittelwertsgleichheit und sahen jede Abweichung schon als Unfairness.

  • Es ist desweiteren üblich und hilfreich, vorher zusammenzufassen was der Sinn der nachfolgenden Darstellung ist. Denn die folgenden Befunde zeigen genau das ja. Wenn DU andere findest, die das nicht belegen - und nur dann - muss man das relativieren. Denn irgendwo haben wir auch schon mal festgestellt, dass es sehr viele Befunde sind :-) Wissenschaft funktioniert so, dass man lange sagt: die einen sagen so, die anderen so. Etwas setzt sich erst dann durch, wenn das eine imme wieder bestätigt wird und nirgends Gegenteiliges gefunden wird. Und das ist hier der Fall und sollte in der Einleitung deutlich werden.
  • Hier haste weggelöscht, was das bedeutet. Ist das aber nicht ABC-Schützenniveau, dass wenn Männer und Frauen im Mittel irgendwo die gleichen Ergebnisse ereichen, auch gleiche Chancen bestehen? Anders wärs, wenn Frauen in den Prüfungen besser wären (Verdacht, dass der Test doch zu streng war) oder schlechter (dann ist es in der Prüfung noch schlimmer als im Test). Wenn Du für eine solche Trivialität eine Quelle finden willst, gibts die sicher in irgendeinem Bericht, wo das dargestellt ist
  • Genau das war aber die Frage. Hat (nur) der Test einen Bias, indem er die Frauen benachteiligt, es dann im Studium ganz anders ist oder sagt der Test das nur korrekt vorher. Vorher werden Befunde gezeigt, dass letzteres zutrifft. jetzt ist unklar, warum. Falls sich Dir die Argumentationslogik nicht erschlossen hat, mag das an meiner betriebsblindheit liegen, das richtig zu erklären. Dan muss man das anders sagen.
  • Da hast Du formal recht, das war aber genau die Quintessenz der Beschwerdeführer in Österreich, warum der Nachteilsausgleich nicht verfassungskonform ist. Ist nun weg. Findet man sicher aber auch irgendwo.

Hyde: dem Rest kann ich folgen. Du hast dich eingearbeitet und viel investiert, danke bis hierhin. Und dass Dritte das verstehen, ist schon wichtig. Gehe ich aber recht in der Annahme (und die scheint auch für Dritte wesentlich), dass Du keine verschwiegenen, verfälschten oder manipulierten Quellen gefunden hast? Meine Betriebsblindheit, unterschiedliche Geschmachksfragen, Herangehensweisen gibt es immer - da streiten sich auch andere. Du bist halt ein Strengerer - muss nicht schlecht sein. Mein Deutschlehrer hat mich früher auch oft so zusammengestaucht, das bin ich gewöhnt und ist auch nicht das Problem. Vorschlag für die weitere Feinarbeit: ein Problem, eine Diskussion, eine Lösung. -- Brainswiffer (Disk) 08:37, 3. Okt. 2018 (CEST)Beantworten

Punkt für Punkt[Quelltext bearbeiten]

bezieht sich auf: Diskussion:Eignungstest für das Medizinstudium in Österreich#DP1
  • "Dass sich 60 % Frauen und 40 % Männer in beiden Ländern im Durchschnitt bewerben, wird als eine erste Ursache für die Mittelwertsdifferenzen in Repräsentativitätsunterschieden beider Gruppen gesehen, eine Mittelwertsgleichheit ist unter diesen Bedingungen eher unwahrscheinlich." Zunächst zu den Belegen: Dies und dies war angegeben. Es ist leicht zu erkennen, dass beide Texte diese Fragen überhaupt nicht behandeln. Es handelt sich um Scheinbelege, die zwar wegen der hübschen Hochzahlen gut aussehen, aber mit dem zu belegenden Text nichts zu tun haben. Das Argument ist zudem sehr schwach: "Wenn sich immer noch nur die Leistungsbesseren für Medizin bewerben und Männer zu Frauen 50:50 sind und die Eignung auch normalverteilt ist: Bewerben sich aus einer Gruppe 60%, muss nun mal der Mitelwert für Eignung geringer sein." Keine der Voraussetzungen kann als erfüllt gelten. Ein anderes Argument ist allerdings sehr wohl vorgebracht worden, u.a. auch von Spiel, und vielleicht ist es das, was Du meinst: Mittelwertgleichheit zwischen verschiedenen Teilgruppen ist grundsätzlich zunächst mal nicht zu erwarten. Die Vorstellung, dass Männer und Frauen in jedem fairen Test gleich abschneiden, ist irrig. Das könnte man hier sagen (aber bitte belegen, dass es in der Diskussion überhaupt eine Rolle gespielt hat).
    • BS: Quelle 1. Dies scheint fehlplatziert. Sie belegt, dass die Debatte in Austria selber lief und nicht CH:AT :-) Wenn die ÖH Medizin (keinesfalls konservativ :-) pro NC und pro Differenzierung einschliessich Suche im Bildungssystem auftritt, ist das aber eine wichtige Quelle anderswo (z.B. gleich nach Satz 1). Vielleicht findet man noch eine, die es auf den Test schiebt und dann haben wir beide "Pole". Quelle 2 sollte eigentlich nur ergänzend die Situation in Graz beschreiben. Ich vermute mal, dass Quelle 1 verwechselt wurde. Dass grob gerundet 60:40 die Bewerberquote und 40:60 die Zulassungsquote war, stand damals quasi in jeder Zeitung. [https://www3.unifr.ch/ztd/ems/doc/Bericht_EMSAT06.pdf Hier auf Seite 33 steht übrigens nochmal im offiziellen Bericht, wie das ist (übrigens auch wie es in der Schweiz ist). Richtig, Spiel meint das Gleiche! Hier war es nur mit Zahlen untersetzt, die ja auch in dem Bericht stehen. Ich halte es für wesentlich, weil einige Mittelwertgleihheit erwarteten, was eben schon theoretisch nicht sein kann, wenn Fähigkeiten normalverteilt sind. Also Vorschlag: Erste gelöschte Quelle umplatzieren und Bericht wie Spiel als Beleg für den gelöschten Satz



  • "Zahlreiche Ergebnisse sprechen dafür, dass die Genderdifferenzen im Test auf objektiven Eignungsunterschieden beruhen:" Nein, das geht grundsätzlich nicht. Erstens stimmt es so nicht: Die im Folgenden genannten Argumente sprechen dafür, dass es auch objektiv Differenzen zwischen männlichen und weiblichen Testbewerbern gibt. Sie sind grundsätzlich nicht geeignet zu belegen, dass es "nicht am Test liegt", sie sind aber (und das ist für die Debatte sehr wichtig) geeignet zu belegen, dass die Unterschiede in den Testergebnissen mindestens partiell auf real vorhandene Differenzen zurückgehen. Die Präsupposition der "Eignung" erwähne ich nur vollständigkeitshalber; der Test hat die Absicht, "Eignung" zu erfassen, ob dies aber tatsächlich "Eignung" ist, ist ja genau strittig. Wenn man "Eignung" als "rechtzeitiges Bestehen der ersten Zwischenprüfung" fasst, ist das offensichtlich korrekt; dass dies allerdings ein notwendigerweise verkürzter Eignungsbegriff ist, ist in der Debatte vielfach gesagt worden (und ich glaube auch nicht, dass Du es bestreiten würdest: Du würdest nur sagen, das jedenfalls kann man gut messen, alles darüber Hinausgehende ist schwer umzusetzen). Zweitens nimmt es in irreführender Weise ein Ergebnis, das sich aus dem Folgenden gar nicht ableiten lässt, vorweg. Einen korrekten Weg, hier die folgenden Punkte einzuführen, könnte ich mir so vorstellen: Folgende Argumente wurden dafür vorgebracht, dass die Unterschiede in den Testergebnissen auf real vorhandene Differenzen zurückgehen.
  • "Dass der EMS chancengleich nach gleicher Eignung zulässt und die Unterschiede nicht testbedingt sind ..." Nein, das ist keineswegs trivial. Ich habs jetzt verschiedentlich begründet. Die Auswertung belegt, dass zwischen Testergebnis und Ergebnis bei der ersten Zwischenprüfung eine enge Beziehung besteht und diese keinen Geschlechterbias aufweist. Das ist zweifellos ein wichtiges Ergebnis und es steht ja auch so da. Sie kann aber selbstverständlich nicht belegen, dass die Zulassung "chancengleich nach gleicher Eignung" geschehen ist. Dazu müsste man zum Beispiel etwas über den weiteren Studienverlauf wissen (Spiel weist auf Studien hin, dass Frauen tendenziell länger brauchen, um sich mit dem Prüfungswesen zu arrangieren), aber natürlich auch über die Unterschiede zwischen Zugelassenen und Nicht-Zugelassenen. Die Interpretation des ZTD ist in sich logisch, wenn man "Eignung" = "Ergebnis der SIP-1 nach einem Jahr" setzt, aber nicht darüber hinaus.



  • "und alle empirischen Belege dafür sprechen, dass es sich um objektive Eignungsunterschiede zwischen den Geschlechtern handelt". Selbes Problem. Was ich mir gut vorstellen kann, denn das zeigen die angegebenen Ergebnisse und Überlegungen sehr wohl: ... "dass die Unterschiede in den Testergebnissen mindestens partiell auf real vorhandene Differenzen zwischen den Geschlechtern zurückgehen". Das heißt, es sind sicherlich nicht-testbedingte objektive Differenzen zwischen den Geschlechtern vorhanden. Das ist ja teilweise bestritten worden und das kann man so mit guter empirischer Basis zurückweisen. Ob es auch testbedingte Einflüsse gibt, ist demgegenüber so nicht auszuschließen.
    • BS: Den Punkt kann man imho kurz abhandeln: Schlüsselwort: "empirisch". Dass der Test Ursache der Gender-Differenz ist, hat "empirisch" meiner Kenntnis nach niemand nachgewiesen, eben auch Spiel nicht. Es ist eine Zusammenfassung des Vorhergehenden. Vorsichtiger formuliert: und die Mehrzahl der empirischen Belege dafür sprechen, dass es sich um objektive und keine testbedingten Leistungsunterschiede zwischen den Geschlechtern zum Zeitpunkt der Testabnahme handelt. Dann ist auch nichts präjudiziert, ob das später ausgeglichen werden kann. Man muss leider am Anfang selegieren und es ist nicht feststellbar, welches Individuum das ausgleicht und welches nicht, wenn das auch nur über Gruppen-Mittelwerte festgestellt wurde.



  • "Bisherige Förderungsprogramme für Frauen gehen davon aus, bei gleicher Eignung Frauen zu bevorzugen (etwa wenn bestimmte Quoten vorgegeben werden). Da es sich bei den festgestellten Unterschieden um tatsächliche Eignungsunterschiede handelt, wurden erstmals weniger geeignete Personen solchen mit höherer Eignung vorgezogen." Ich glaube sofort, dass das die Argumentation der Klageführer war. Aber dann muss man es doch verdammt nochmal als Argumentation der Klagenden einführen! (und natürlich dies auch belegen). Nebenbei ist das Argument hier sehr schwach. Der Test zielt doch eben darauf, ein eindeutiges Ranking hervorzubringen. Es kann damit prinzipiell als Testergebnis keine "gleiche Eignung" geben. Das liegt aber nicht daran, dass es nicht "gleich Geeignete" geben könnte, dafür spricht schon der Alltagsverstand. Das liegt daran, wie der Test konstruiert ist: Er hat eben gerade die Aufgabe, ein eindeutiges Ranking zu produzieren, damit man nach diesem Ranking gerichtsfest eine bestimmte Anzahl an Studienplätzen vergeben kann. Deshalb muss er "Eignungsunterschiede" erzeugen, sonst macht er seinen Job nicht. Würde er nicht diesen Job haben, sondern nur ein Testen der Fähigkeiten, könnte er problemlos eine ganze Gruppe eng beieinander Liegender für "gleich geeignet" erklären, und das wäre wahrscheinlich auch objektiv sinnvoller, da es wohl kaum gerechtfertigt ist, von minimalen Differenzen im Ergebnis auf eine Unterscheidung zwischen "geeignet" und "ungeeignet" zu schließen.--Mautpreller (Diskussion) 12:01, 3. Okt. 2018 (CEST)Beantworten

Ergänzend, damit es nicht untergeht: "Die bessere Beurteilung kann sich auf die Selbsteinschätzung der eigenen Leistungsfähigkeit verzerrend auswirken und auch das Studienwahl-Verhalten derart beeinflussen, dass die höheren mathematisch-naturwissenschaftlichen Anforderungen eines Medizinstudiums unterschätzt werden." Dafür gibt es keine Quellenangabe. Meines Erachtens ist das eine bloße Spekulation und durch nichts gedeckt, wahrscheinlich gibt es überhaupt keine Quelle. Als Spekulation kann man sich so etwas zwar allgemein vorstellen (etwa bei Benotung nach Bildungshintergrund), im konkreten Fall der Mädchen gibt es aber m.E. überhaupt nichts, was darauf hinweist. "Selbstüberschätzung der eigenen Leistungsfähigkeit" ist eher kein charakteristischer Zug von Mädchen. Es kann aber sein, dass die Maturanote vor Einführung der Zulassungsbeschränkungen für die Entscheidung, Medizin zu studieren, eine Rolle gespielt hat (wurde mir damals mit meiner guten Abiturnote auch nahegelegt, hab ich Gottseidank nicht gemacht), dann aber wohl kaum aufgrund einer "Selbstüberschätzung der eigenen Leistungsfähigkeit". Hin und her, ich halte eine Streichung des Satzes für unabdingbar.--Mautpreller (Diskussion) 13:07, 3. Okt. 2018 (CEST)Beantworten

Kurzer Einwurf, ohne mich in alle Belege im einzelnen vertieft zu haben: Die Überarbeitung scheint auf einem guten Weg. Spannender als ewig strittige Fragen zum Einfluss von klassischen Rollenbildern oder Benotungsunterschieden zwischen Jungen und Mädchen, was die Eignung von Schulnoten als Validitätskriterium evtl. infragestellt, ist doch die Frage der prognostischen Validität des Tests, d.h. dessen Fähigkeit, den Studien-, mehr noch den Berufserfolg vorherzusagen.
Wobei letzterer sicher sehr schwer objektiv zu messen ist. Infrage käme z.B. eine Beurteilung junger Ärztinnen und Ärzte durch deren Vorgesetzte ohne Kenntnis ihrer Testwerte - ausschließlich zu empirischen Zwecken, ohne arbeitsrechtliche und soziale (Beurteilung wird Probanden nicht bekannt gegeben) Konsequenzen. Gibt's dazu wirklich nur die derzeitigen ENW 11 und 12? --Anti ad utrumque paratus 13:10, 3. Okt. 2018 (CEST)Beantworten
Dazu müsste Brainswiffer mehr sagen können. Ich denke, für Österreich gibt es nicht mehr, soweit ich mich erinnere, übernimmt Spiel in ihrer Evaluation diese Daten. Für die Schweiz (EMS) gibt es etwas mehr, und der EMS-AT ist derselbe Test (am selben Tag), siehe Eignungstest für das Medizinstudium. Noch etwas mehr gibt es zum TMS in Deutschland, auf dem der EMS aufbaut. Freilich muss man sagen (wir haben das im Schweizer Artikel diskutiert): Zur Prognose des Berufserfolgs gibt es, soweit ich sehe, gar nichts. Das wird auch beklagt, etwa vom Schweizer Wissenschaftsrat. Zur Prognose des Studienerfolgs über das erste (teilweise zweite) Jahr hinaus gibt es nichts Befriedigendes. Man kann etwa für die Schweiz Vergleiche anstellen zwischen NC- und Nicht-NC-Unis, die erlauben aber allenfalls sehr indirekte Aufschlüsse und sind als Validierung aus verschiedenen Gründen ungeeignet. Das Fehlen von Untersuchungen zur Beziehung von Testergebnissen und weiterem Studienverlauf oder gar Studienabschluss wird auch vom Schweizer Wissenschaftsrat bemängelt und solche Untersuchungen werden dringend empfohlen (aber offenbar nicht bezahlt). Die prognostische Validität für das erste und teilweise zweite Studienjahr ist jedoch unbestritten ziemlich hoch und erreicht fast diejenige von Schulnoten.--Mautpreller (Diskussion) 13:39, 3. Okt. 2018 (CEST)Beantworten
Noch zur Ergänzung: Das ist ein fachspezifischer Studierfähigkeitstest. Er unterliegt allen Einschränkungen von solchen Tests (siehe den verlinkten Artikel). Es wäre wohl unfair, von diesem Test eine Prognose der beruflichen Eignung zu verlangen, zumal die beruflichen Einsatzfelder breit gestreut sind. Man kann aber, meines Erachtens sehr zu Recht, kritisieren, dass ein solcher Test als Zulassungsvoraussetzung für das Studium verlangt wird, das für diesen Beruf ausbildet.--Mautpreller (Diskussion) 14:23, 3. Okt. 2018 (CEST)Beantworten
Nur mal hierzu und in Eile: MP sagts richtig. Austria nichts weiter, Schweiz und Deutschland besser - Studienerfolg. Beklagen zum Berufserfolg tun das alle. Die prozentualen "Abschlussanalysen" pro Uni, System und Zeiträume sind auch immer noch Studienerfolg. Berufserfolg = "Guter Arzt" irgendwo. Da hat sich auch über den EMS hinaus niemand rangetraut. Messen kann man das erst nach Jahren im Beruf. Dazu brauchte man Anforderungsanalysen, Erfolgskriterien und dann Daten für Mengen von Personen über die Erfüllung - umd dann zu schauen, ob der Test das vor rund 10 Jahren vorhersagte :-) So weit reicht die Prognosekraft keines Tests wirklich :-) Das ist sicher auch fachgebietsspezifisch (Chirurg anders als Psychiater oder Pathologe usw.). Man ist so weit: man braucht "sicher irgendwo" auch soft skills wie soziale Kompetenz, Motivation etc. Die zu messen ist leider auch nicht einfach (Faking, Trainierbarkeit...). Und dann kommt folgendes Paradoxe dazu: Mit dem heutigen "Studienerfolg" der Prüfungsbesteherei haben die ja weniger zu tun (oder in unbekanntem Ausmass) und mit dem "Berufserfolg" ist nur eine Plausibilitätsannahme, auch nicht gesichert. Man weiss also nicht, ob sie wirklich gesetzestreu die "Eignung" messen. Wenn man die trotzdem nimmt, braucht man also auch Gottvertrauen. Und ich würde dann oben punkt für punkt drunterschreiben, wenn Du nicht widersprichst, MP? Heute ist aber notime -- Brainswiffer (Disk) 15:30, 3. Okt. 2018 (CEST)Beantworten
Tja, schwierig. Der Studienerfolg ist ja, wie auch der Schulerfolg, Gesamtergebnis einer Vielzahl von Prüfungsleistungen, bei denen wohl niemand ernsthaft behaupten wird, dass sie den Gütekriterien psychodiagnostischer Verfahren auch nur ansatzweise genügen. Damit ist die empirische Faktenlage sehr dürftig und alle Rezeption des Tests letzlich nur Meinung. Bliebe die Möglichkeit einer Untersuchung des Berufserfolgs wie oben vorgeschlagen, wobei die Stichprobe so groß sein müsste, dass sowohl die breite Streuung der beruflichen Einsatzfelder (nichtärztliche Tätigkeiten würde ich rauslassen) gem. Mautpreller als auch subjektive Vorlieben der beurteilenden Vorgesetzten ausgemittelt würden. Das wird für diesen Test wohl kaum noch stattfinden. --Anti ad utrumque paratus 16:47, 3. Okt. 2018 (CEST) PS: Was mich immer wieder wundert: Die Konstruktvalidität der Variable Geschlecht wird von Gender(!)-Forscher/innen m.W. nie angezweifelt ;-) Jedenfalls dann nicht, wenn wie hier Benachteiligung von Frauen aufgezeigt werden soll ..Beantworten
Die Gütekriterien gelten für den Test, (hier) nicht für Studienerfolgskriterien (zB. Noten), die auch fuzzy sein können. Wichtig ist, dass man die mit dem Test vorhersagen kann. Die guten Prognosekorrelationen sind schon mehr als "Meinungen" :-) Ein NC ist auch eine Gerechtigkeitsfrage - wen lasse ich zu, wen lehn ich ab. Wenn es da nicht die gesicherten Korrelationen gäbe, dürfte man das gar nicht machen bzw. könnte auch würfeln. Die Begrenzung auf Studieneignung - und das Bestehen der ersten Jahre, wo die meisten durchfallen - ist dann quasi noch das Gerechteste unter allen Ungerechtigkeiten :-) Für Berufseignung brauchst Du zu viel Grundlagenforschung zuerst. Und unter uns: da lassen die Mediziner auch keine ran, um deren Reich nicht zu entzaubern :-) -- Brainswiffer (Disk) 17:16, 3. Okt. 2018 (CEST)Beantworten

Du musst das Pferd mal von hinten aufzäumen

  1. Du hast nur für 30 Leute von 100 Plätze (warumimmer, ist politisch so und shit), musst 70 wegschicken.
  2. Die Zugelassenen sollen nicht durchfallen und dann abbrechen (bei alle zulassen brechen 50% ab, das war vorher so) weil du Ärztemangel hast, aber auch nicht mehr Geld für mehr Plätze
  3. Du musst die Leute in eine Reihe stellen nach "Grösse" und nimmst die ersten 30. Die "Grösse" muss mit Wahrscheinlichkeit zum Prüfungsbestehen zu tun haben als Erfolg. Dann brechen die auch weniger wahrscheinlich ab.
  4. Da könntest Du zB. die Punktzahl von 10mal Würfeln addieren oder die Zeit im 100-Meter-Lauf nehmen oder von einem Test
  5. Würfeln ist Zufall, da fallen weiter um 15 schlimmstenfalls durch, also weiter die Hälfte
  6. Laufzeit ist eine Fähigkeit, hat aber nix mit Prüfungsbestehen zu tun, fallen auch 15 schlimmstenfalls durch
  7. Wenn Test auf Vorhersage Erfolg zugeschnitten sind, was wir Eignung nennen, kannst du bis 30 durchbringen (oder 28, wie es umgerechnet ungefähr sogar ist). Das sind die fachspezifischen studierfähigkeitstest. Nur dann ist es auch irgendwo fair, weil den Leuten gegenüber begründbar, warum der eine darf und der andere nicht. Die Erfolgsaussichten sind höher.
  8. Und wenn der Test nur so tut, ein Eignungstest zu sein, hast du wieder nicht mehr als 15 (oder 20, weil die mehr Ruhe haben) Deswegen sind die Absolventenstatistiken eben doch wichtig, lieber MB :-)
  9. Und bei allem kannst du nur so gut sein, wie Tests hinsichtlich Prognose überhaupt sein können. Die liegen sehr deutlich unter dem Wetterbericht. Frage ist immer, ob es besseres gibt, was aber auch bezahlbar ist.

Wow, das kann ich 1:1 verwenden anderswo. Beim erklären lernt man auch.

  1. -- Brainswiffer (Disk) 17:41, 3. Okt. 2018 (CEST)Beantworten

Anlass[Quelltext bearbeiten]

Was dem Artikel völlig fehlt, ist der Grund für die Aufregung. Ich hab bisher keine Statistiken gefunden, aber zum Beispiel dies hier: "Insgesamt beträgt der Frauenanteil bei den Medizin-Studienanfängern mit 45 Prozent deutlich unter dem Wert der Vorjahre (2004: 60 Prozent, 2005: 57 Prozent), als noch keine Zugangsprüfung über die Aufnahme entschied." Das bedeutet doch ganz einfach: Vorher, als es kein Zulassungsverfahren gab, waren die Frauen, die ein Medizinstudium begannen, in der (deutlichen) Mehrheit. Es wurde nicht etwa wegen irgendwelcher Probleme im Medizinstudium oder sonstwas eingeführt, sondern weil die EU verlangt hat, das österreichische Studium für EU-Bürger zu öffnen (Deutschenschwemme). Da sind sie dann auf den standardisierten Test verfallen, weil der aus der Schweiz zur Verfügung stand - und plötzlich fällt der Frauenanteil heftig auf sehr deutlich unter die Hälfte. Das war natürlich eine böse Überraschung und es ist klar, dass man sich da Gedanken macht. Es spricht nichts dafür, dass das irgendwas mit dem Studium zu tun gehabt hätte (bspw. Frauen mit dem Studium besondere Probleme gehabt hätten); den Unterschied machte allein der Test. Es scheint mir ziemlich logisch, dass das mit der Kennzahlorientierung des Tests zu tun gehabt hat (hier: der Ausrichtung darauf, Prüfungen möglichst auf Anhieb zu bestehen). Es stimmt übrigens auch nicht ganz, dass die Genderfrage in der Schweiz völlig unproblematisch gewesen wäre (vgl. SWIR-Bericht, wo Studien "mit kleineren Stichproben" genannt wurden, die auf Probleme hinwiesen), aber alles spricht dafür, dass das Problem in Österreich erheblich größer war (und ist), und es ist nach wie vor nicht deutlich, woher dieser nationale Unterschied kommt, denn die angeführten Gründe treffen ja nicht bloß auf Österreich zu.--Mautpreller (Diskussion) 21:47, 3. Okt. 2018 (CEST)Beantworten

Anlass steht doch im Abschnitt rechtliche Grundlage. Die haben neu einen Numerus clausus (!) einführen müssen, der mit dem Test eben zu den beschriebenen Phänomenen führte, die doch beschrieben sind. Wo zuerst der Test schuld sein sollte, es aber komplizierter war. Und das wird analysiert. Und der Artikel geht über den Test, nicht die Medizinstudiumsprobleme. Ich versteh weder den Beitrag, noch die Konsequenzen.
Dritte steigen hier offenbar nicht ein. Wenn wir beide weiter wollen, müssen wir strukturieren und effektiver werden. Und bei den genderuntersuchungen in der Schweiz musst du auch lesen, was da in den kleinen Studien untersucht wurde. Das ZTD berichtet jährlich die mittelwertdifferenz und da ist es eben nur an der signifikanzgrenze. -- Brainswiffer (Disk) 22:12, 3. Okt. 2018 (CEST)Beantworten
Die Sache ist doch ganz einfach. Der Test geriet nicht deswegen unter Kritik, weil die Leute alle so genderfixiert sind (so klingt es im Artikel). Der Test geriet deswegen unter Kritik, weil er die Geschlechterverhältnisse im Medizinstudium massiv verändert hat. Der Vorher-nachher-Vergleich ist eindeutig. Mal ganz schlicht ausgedrückt: Medizinstudium läuft im Großen und Ganzen, es gibt bloß die üblichen Probleme, nichts Gravierendes, der Zugang ist offen. Bloß funktioniert das nicht mehr seit dem Urteil des Europäischen Gerichtshofs. Man muss schnell was machen. Da gibts ja diesen Test von den Schweizern. Kaufen wir uns den für ein Zulassungsverfahren ein. Böses Erwachen: Plötzlich fällt die Frauenquote von 60 auf 45 Prozent. Diese Nebenwirkung war nicht geplant und sorgt für großen Ärger. Wie sie zustande kommt, ist nach wie vor im Grunde ungeklärt. Dieser Kontext scheint mir wichtig, um die Diskussion überhaupt zu verstehen. Das heißt, er muss in den Artikel.--Mautpreller (Diskussion) 22:26, 3. Okt. 2018 (CEST) (Im BK mit folgendem Post geschrieben, gehört aber noch hier oben hin:) Von diesem Erzählerstandpunkt aus kann ich die Geschichte auch weitererzählen. Rätselraten: Was ist da passiert? Was hat sich verändert? Naheliegende Antwort: Der Test ist schuld! Die Schweizer sind beleidigt. Ihr Test funktioniert doch bei ihnen gut. Das fehlte grad noch, dass die Österreicher erst ankommen und sich dann beschweren über das Schweizer Produkt. Ich könnte jetzt aus dem Hut ein paar Hypothesen aufstellen, was da los war, aber das ist hier gar nicht gefragt. Ich erzähle die Geschichte bloß so, um mal einen anderen Blickwinkel zu zeigen: Wie kam diese Dynamik der Diskussion zustande? Ich meine, dass man das im Artikel verständlich machen muss.--Mautpreller (Diskussion) 22:51, 3. Okt. 2018 (CEST)Beantworten
Ich kann diesmal nicht verstehen, worauf du abhebst. Was ist genderfixiert? Ich les das nicht. Es gibt das von dir richtig gesehene Phänomen der geringeren Frauen-Zulassung das störte und sollte aber am Test liegen. Und dann gab es DORT Einwände, dass das schlimmer ist und bildungsprobleme dran schuld sind. Und was heißt ungeklärt? In dem Falle suchen wir Befunde - für Tesstbias oder anderen Ursachen und wägen ab. Jetzt wirst du zu POVig :-) -- Brainswiffer (Disk) 22:47, 3. Okt. 2018 (CEST)Beantworten
ps: bist du denn bereit, erst mal formen zu suchen, wie wir strukturieren und nicht alle Baustellen auf einmal angehen? Den Artikeln würde es gut tun. -- Brainswiffer (Disk) 22:55, 3. Okt. 2018 (CEST)Beantworten
und zu deiner Ergänzung: jetzt ist der Artikel sachlich und beschreibend. Wo siehst du überhaupt eine Dynamik? Wir sollten weiter nur berichten und sachlich schlussfolgern. -- Brainswiffer (Disk) 22:59, 3. Okt. 2018 (CEST)Beantworten
und die Front war nie Schweiz gegen Österreich, Sonden in Österreich - die das auf den Test schoben vs. die sich freuten, dass das endlich rauskam. Das von dir gelöschte Echo in den Foren war eben so klar letzteres. Dazu gehörten auch der Minister und beide Rektorate. Dann gab es in Wien einen Personalwechsel unter besonderen Umständen im Jahr 6, nicht wegen dem Test :-) und der führte zur genderkorrektur und diese zur Kündigung. Sonst wäre das noch so lange gegangen, bis der eigene Test wirklich fertig gewesen wäre oder es hätte weiter mehrere Modelle parallel gegeben. -- Brainswiffer (Disk) 23:04, 3. Okt. 2018 (CEST)Beantworten
Nein, der Artikel ist nicht "sachlich und beschreibend", und meine Argumente dazu hab ich nun auch schon mehrfach angebracht. Diese Story (natürlich stark vereinfacht, die von Dir genannten Facetten könnt man leicht integrieren) war eigentlich nur ein Argument dafür, dass man in dem Artikel wenigstens kurz die Situation vor Einführung des Zulassungsverfahrens und die statistischen Veränderungen durch die Einführung des Verfahrens (nebst Test) beschreiben muss. Ich will doch im Artikel keine Story erzählen, die war nur gedacht, um deutlich zu machen, dass diese Informationen wichtig sind.--Mautpreller (Diskussion) 23:14, 3. Okt. 2018 (CEST)Beantworten
dann mach doch mal, meckern kann ich dann immer noch. Nur die Story musste eben auch in Quellen erklärt werden und ich bin keine ;-) -- Brainswiffer (Disk) 23:20, 3. Okt. 2018 (CEST)Beantworten

Formen suchen[Quelltext bearbeiten]

Da seh ich kein Problem, ich hatte den obigen Abschnitt eher als Merkposten gemeint. Oben stehen fünf, genau genommen sechs Punkte, lass uns die mal durchgehen.--Mautpreller (Diskussion) 23:16, 3. Okt. 2018 (CEST)Beantworten

So, ich hab mal Frage 1 und 4 beantwortet und das vorher verlinkt. Wenn Du das auch OK findest, sollten wir das dort bis zur Lösung führen und uns dann das Nächste vornehmen (damit wir durchhalten). Und wenn wir immer bei der Sache bleiben, nicht immer "Beschimpfungen" und Mutmassungen einbauen, sollte das auch gelingen. Ich hab nie gesagt, dass das keine Arbeit ist, das richtig UND verständlich darzustellen. -- Brainswiffer (Disk) 09:00, 4. Okt. 2018 (CEST)Beantworten

Muss um Aufschub bitten: Mir wachsen grad RL-Anforderungen über den Kopf.--Mautpreller (Diskussion) 18:18, 4. Okt. 2018 (CEST)Beantworten

So do I :-), ab morgen ja wikipediamässig ausgebucht, nächste Woche ist auch noch ein Tag. Lieber langsam, aber effektiv. Denn - weil das ja einige "Lurker" auch interessiert - fühle ich mich zwar wie von meinem früheren Deutschlehrer behandelt, rechne aber mit "bestanden" ;-) Da scheinst Du andere wesentlich schlimmer zu behandeln, wie ich heute im Colosseum lurkend mitbekam :-) -- Brainswiffer (Disk) 18:39, 4. Okt. 2018 (CEST)Beantworten
Ach was. --Mautpreller (Diskussion) 20:31, 4. Okt. 2018 (CEST)Beantworten
Wir können alle nicht über unsere Schatten springen :-)

Vor der Abreise nach SG nochmal zum Nachdenken für uns beide, für beide Artikel gültig. Andere Leute sind willkommen:

  1. Numerus clausus, Medizinstudium, einen potentiellen Artikel Zulassungskriterien zum Medizinstudium (etwa wie hier oder in dieser Übersicht oder Studierfähigkeitstest mit allgemeinen Möglichkeiten und Grenzen sollten wir hier nicht abhandeln. Das wird im Leben auch oft vermischt. Gut verlinken OK. Hier gehts um diesen einen Test.
  2. Die Politik hat sich für diesen Test entschieden, hätte anders entscheiden können. "Man könnte aber auch noch..." gehört hier nicht rein? Vor- und Nachteile ja, aber imho fachlich, und nicht "politisch" :-) Im Opelartikel wird auch nicht geschrieben, man sollte lieber Mercedes fahren :-)
  3. Der Test wurde in Österreich 7x eingesetzt und hat DA eine Debatte ausgelöst. Die einen schoben die Genderdifferenzen auf den Test (ohne wirkliche Empirie), die anderen sahen Befunde, die auf ein grösseres Übel da hinwiesen, was man angehen wollte, um wirkliche Gleichheit zu schaffen (z.B. im Bildungssystem etwas ändern). Imho gehört die Debatte dazu rein (die ging ja um den Test), aber eben auch die nachvollziehbaren empirischen Befunde, damit man sich selber eine Meinung bilden kann, ob Test oder das Leben schuld sind. Einige merkbefreite Ideologen von aussen, die das jetzt whyever instrumentalisieren wollen, sollten wirklich nochmal schauen, was da konkret lief und in der Sache argumentieren. Da kam NICHTS bisher. Und "Igitt, der Böse hat Genderei gelöscht" ist eben doch was anderes als (eigene Texte!) in einen separaten Artikel auslagern und erweitern. Thats a wiki.
  4. Und schon zwischen uns zeigt sich: das ist komplex und fachlich anspruchsvoll. Es ist auch wichtig und relevantes Wissen. Ergo müssen wir anderswo drüber nachdenken, wie das mit den Experten wirklich sein soll, die über ihr Thema hier schreiben wollen (was eben auch ein wichtiges Motiv ist). Die allermeisten schreiben in WP mit Interessen und das Modell am Ende muss so sein, dass man nicht wissen muss, was derjenige mit dem Thema zu tun hat. Es muss natürlich relevant sein, stimmen und repräsentativ sein. Dazu muss es erst mal wieder attraktiv für Experten werden, es muss mehr geben (Psychologie ist zb eine Wüste) und dann entwickelt sich wie im RL eine wechselseitige fachliche "Kontrolle". Dass unbedeutende Diplomsonstwas ihre fachlich nicht rezipierten oder rezensierten, ggf. sogar käuflichen Werke hier einbringen und an der (noch) nicht vorhandenen Reputation von Werk oder Person schrauben wollen, kan man trotzdem davon gut abgrenzen und sollte NoGo bleiben. -- Brainswiffer (Disk) 08:57, 5. Okt. 2018 (CEST)Beantworten

Abschnitt über Genderunterschiede aktualisieren[Quelltext bearbeiten]

Der Abschnitt über die Genderunterschiede wurde letztmals 2014 aktualisiert, ich denke es wäre zeit für eine erneute Aktualisierung weil die Entwicklung nach 2014 sicher auch relevant ist. --MrBurns (Diskussion) 16:28, 18. Okt. 2020 (CEST)Beantworten