Wikipedia:Diskussionen über Bilder/Archiv/2010/Sep

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Ein Kaktus mit Früchten

Opuntia quimilo im Kaktusgarten: "Jardin de cactus" creation de Manrique in Guatiza auf Lanzarote.

Würde gerne dazu einige Meinungen hören. Eine Bestimmung der Kaktusart hat sich Dank eines Schildes bei der Pflanze auch erübrigt :-) Gruß, --Alchemist-hp 23:55, 20. Sep. 2010 (CEST)

Die massive, überwältigende Mauer lässt die arme Pflanze etwas schwachbrüstig dastehen. Der Gebrauch eines Weitwinkelobjektivs ist in diesem Fall höchst zweifelhaft, weil dadurch der Kaktus noch mickriger wirkt, die Proportionen entgleisen und eine räumliche Wirkung stark erschwert wird. Darüberhinaus wundere ich mich etwas über die ziemlich geschlossene Blende. Ein aufgeblendetes lichtstarkes leichtes Teleobjektiv würde es ermöglichen, den Kaktus von der Mauer abzurücken und die Schärfentiefe kreativ auszunutzen. Desweiteren stellt sich, wie so oft, das Problem der Sonne. Viel Sonne, viel Schatten und Schatten nix gut! Ausser man nutzt den Schatteneffekt bewusst kreativ aus, aber das ist eine andere Geschichte. --Cornischong 01:02, 21. Sep. 2010 (CEST)
Na, ja die Pflanze war ca. 80cm hoch. Mit f/10 wollte ich genügend Tiefenschärfe erhalten um die gesamte Pflanze scharf abgebildet zu bekommen. Hinter mir war bereits der Abgrund, in einer Art Terassenförmig angeordnetem Garten. Mit einem Tele hätte ich nur Teile der Pflanze abbilden können. Einen Abschnitt von einer ähnlichen Pflanze gibt es demnächst auch noch zur Gesicht. An einem Panorama von dem Garten bin ich gerade noch am besteln. Da es nicht nur um die Pflaze ging, sondern auch um den Garten so meine ich das die Wirkung schon deutlich rüberkommt. Über der Pflanze gab es die nächste Stufenförmige Terasse. Aber Danke für die Meinung, --Alchemist-hp 01:15, 21. Sep. 2010 (CEST)
Mein Kommentar wollte keine Holzhammermeckerei sein. Hinter sich ein Abgrund und vor sich bedrohliche Stacheln, das ist natürlich keine beneidenswerte Position. Was ich etwas schade finde: Die Möglichkeit, die sehr speziellen Farben der Katusohren zu erhaschen, wird durch das schroffe Licht "nicht erleichtert", zumal es sich ja um eine Edelscherbe handelt, die fähig ist, überhaupt reale Farben "einzufangen", ein Problem, das hier viel zu oft herumspukt und das hier neurotisch besetzt ist. Gelobt sei das Zwielicht, meint --Cornischong 01:27, 21. Sep. 2010 (CEST)
Ich würde es nicht so pointiert ausdrücken wollen, aber mit dem Licht hat das Gürkchen schon recht und die von-oben-draufguck-Perspektive finde ich auch nicht so prickelnd. Ein Aufheller, der die harten Schatten abmildert, wäre vermutlich hilfreich gewesen. -- smial 02:11, 21. Sep. 2010 (CEST)
"Ich würde es nicht so pointiert ausdrücken wollen": Nanana, wer würde sich unter diesen Umständen überhaupt noch ausdrücken wollen? Und wer würde das Unpointierte denn noch verstehen wollen? Würde es darüberhinaus noch jemanden geben, der sich in einer Diskussion (steht drüber!!) gegebenenfalls eine Meinung leisten wollen würde? Oder würde er nicht wollen? Den Rest hat Karl Kraus schon geschrieben wollen würde. --Cornischong 12:03, 21. Sep. 2010 (CEST)
Unser täglich Rätsel gib uns Heute ...  ;-) --Alchemist-hp 13:54, 21. Sep. 2010 (CEST)
Der Urfehler ist natürlich dem Alchemisten zuzuschreiben, der gerne "dazu einige Meinungen hören" würde. "Würde"! Will er oder will er nicht? Möge er es uns mitteilen. Und: Wie würde er sie denn "hören" wollen? Würde er "lesen" gemeint haben wollen? Vielleicht traut sich deshalb niemand, hier seine Meinung schreiben zu wollen? Möge der Tag gut enden wollen, wünscht --Cornischong 14:29, 21. Sep. 2010 (CEST)
ah, des Rätsels Lösung ist: "Er (der Alchemist-hp) möchte hier einige niedergeschriebene Meinungen gerne lesen wollen. Wieso einfach wenn es kompliziert geht. Das Gute Licht sei allzeit mit Euch, --Alchemist-hp 14:37, 21. Sep. 2010 (CEST)
  • Inhaltlich muss ich Cornischong zustimmen. Das harte und steile Licht, das auch noch leicht von hinten kommt, führt dazu, dass das Bild unruhig wird. Ein Aufhellblitz hätte die harten Schatten wohl abgemildert, aber vermutlich auch neue Schatten produziert. Die Steinmauer und die von ihr erzeugte Diagonale bringen dann leider noch mehr Unruhe ins Spiel. Von der Komposition stört mich auch die abgeschnittene andere Opuntia im Hintergrund und das Namensschild, wobei letzteres kein Contra-Grund für mich wäre. Ansonsten ist was Schärfe, Tiefenschärfe und Farben betrifft, alles palletti. Ein klassisches Qualitätsbild mit nur kleineren Schwächen. Diese Einschätzung ohne Verklausulierungen wurde spendiert von --Quartl 09:21, 22. Sep. 2010 (CEST)
  • Danke für die konstruktiven Kommentare. Genau so etwas wollte ich hören, sorry: lesen ;-) Bild ist im Artikel gut untergebracht und an KEB hatte ich eh nicht gedacht. Dämnächst gibt es auch noch ein Panorama mit der ganzen Kaktuaanlage. Grüße, --Alchemist-hp 12:28, 22. Sep. 2010 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: Alchemist-hp 19:22, 23. Sep. 2010 (CEST)

Suche nach Onlinediensten zur Bildersuche

Hallo! Was gibt es an Onlinediensten, die (kostenlos) dazu benutzt werden können, anhand eines Referenzbildes nach Vorkommen dieses Bildes im Internet zu suchen? Mir ist Tineye.com bekannt, gibt es Alternativen? Grüße, Grand-Duc 22:03, 2. Sep. 2010 (CEST)

Ich fürchte nein. Und selbst Tineye ist dabei wirklich schlecht. Selbst leicht modifizierte Bilder (außer Skalierung und Beschnitt) werden nicht mehr gefunden, obwohl sie im Index sind. Noch gibt es dafür leider kein wirklich brauchbares Tool. Einzige Alternative die mir dazu noch einfallen würde ist Googles Similar Image Labs. Wobei da nur recht wenige Bilder erfasst sind. -- (AAW) 15:44, 5. Sep. 2010 (CEST)

dt Fotografen

kann evtl jmd weiterhelfen bei Wikipedia:Bibliotheksrecherche/Anfragen#deutsche_Fotografen? danke -- Cherubino 16:03, 20. Sep. 2010 (CEST)

Archivierung dieses Abschnittes wurde gewünscht von: --Quartl 08:54, 7. Okt. 2010 (CEST)

Selbstgebastelter Ringblitzadapter

Raupe des Tabakschwaermers
Bodenwanzen (Nymphe und ausgewachsen)

Hallo zusammen! Ich habe mich gestern mal hingesetzt und mir aus etwas Pappe, Alufolie und (weissem) Backpapier einen Ringblitzadapter gebastelt (Bauanleitung und Bilder kann ich falls Interesse besteht auch hochladen). Anlass war konkrete Frustration ueber den Lichthunger meines Sigma 150mm Makros. Fuer Blende f/16 und aufwaerts braucht man strahlenden Sonnenschein um aus der Hand (jaja, ich weiss ;-) ) ober bei leichtem Wind noch etwas zu reissen. Dan gibts aber haessliche Reflexe und dunkle schatten. Direkt anblitzen gibt noch haesslichere Reflexe und noch haesslichere Schatten. Versuche mit einem selbstgebauten Taschentuch-Diffusor mildern die harten Schatten zwar ab, aber man bekommt trotzdem nicht ueberall Licht hin. Hier sind mal zwei erste Testbilder. Ich finde die machen Mut, oder ist jetzt alles zu flach beleuchtet? --Dschwen 16:43, 13. Sep. 2010 (CEST)

Das sieht doch schon ganz hervorragend aus, auch wenn noch einige wenige direkte Reflexe da sind. Eventuell kann man noch etwas plastischere Ausleuchtung hinbekommen, wenn man mittels Graufilter oder anderer Maßnahmen halbseitig etwas Licht wegdämpft. Nach Möglichkeit verstellbar (links <-> rechts, oben <-> unten oder wie auch immer). -- smial 17:20, 13. Sep. 2010 (CEST) (der auch schon mal überlegt hat, in ein dickes Lichtleiterbündel hineinzublitzen)
Hmm, ich bastel mal was. Statt Graufilter (teuer) kann man aber auch ein Pappgitter bauen (je nach Stegbreite und Abstand) mit unterschiedlicher Durchlaessigkeit. Zu Glasfaserbuendeln gint es auch eine Anleitung im Netz [1]. Das bietet sich bei Pop-up-Blitzen an. Ich habe einen externen Blitz uerber ein Kabel angeschlossen und blitze damit von unten in einen doppelwandigen Pappzylindertunnel (etwa so wie [2] nur ohne den Lichttunnel, weil der Blitz direkt unten dran haengt). --Dschwen 17:36, 13. Sep. 2010 (CEST)
Da ich die (an sich) schattenfreie Ausleuchtung von "richtigen" Ringblitzen nicht mag, hatte ich eher an eine Imitation klassischer Portraitbeleuchtung im Miniaturformat gedacht, mit zwei (oder sogar drei) Leuchtflächen an verstellbaren Schwanenhälsen o.ä. -- smial 18:24, 13. Sep. 2010 (CEST)
Cokin hatte mal so etwas wie den individuell zu steuernden Ringblitz im Programm, hier im unteren Drittel, entweder vor der Optik oder im Blitzschuh einsetzbar. Ich bereue es bis heute, dass ich mir damals das Teil nicht geleistet habe/nicht leisten konnte - hatte aus irgendeinem Grund wohl nicht den erwarteten Erfolg und ist längst aus dem Programm geflogen. -- Хрюша ?? 18:42, 13. Sep. 2010 (CEST)
Meine Pappversion ist bestimmt auch bei deinem Geldbeutelfuellstand drin ;-). --Dschwen 18:54, 13. Sep. 2010 (CEST)
Heute beklage ich mich ja nicht mehr über den Inhalt meines Geldbeutels, aber in den 80ern lag es halt nicht drin und ich fand das Teil mit drei kleinen, individuell zu richtenden und zu dosierenden Blitzen schon ne Wucht. Na ja, ich habe zumindest immer noch den Prospekt =0}. -- Хрюша ?? 18:59, 13. Sep. 2010 (CEST)
Cokin-Fanboy? ;-) --Dschwen 19:10, 13. Sep. 2010 (CEST)

Ich weiß zwar nicht genau, was du da gebastelt hast, aber vom Ergebnis her ist die Raupe sehr gut. f/16 ist bei dem Objekt und Abstand aber fast noch etwas zu offen. Bei gleicher Blende würden es schon ein paar Zentimeter zurück tun, dann ist das Tier aber nicht ganz so formatfüllend drauf (ein bischen mehr Raum hätte aber auch nicht geschadet). Die Dreidimensionalität hat hier durch die Falten und Punktmusterung nicht gelitten. Die Wanzenmama hingegen finde ich etwas flau und flach, als ob das Foto bei bewölkten Himmel oder Halbschatten ohne Blitz aufgenommen wurde. Die Darstellung im "Halbprofil" ist bei Wanzen sicherlich herausfordernd, f/20 würde ich mich mit meiner Kamera aber ohne Stativ nicht trauen. Hier war letztendlich trotz aller Bastelei nicht genug Licht verfügbar, weswegen das Bild bei gleicher Belichtungszeit um einiges unschärfer wurde. Die verbliebenen Reflexe bei den Kleinen stören auch etwas, glänzende Insektenkörper sind aber eine ganz andere Herausforderung, der man meiner begrenzten Erfahrung nach nur ohne Blitz und direktes Sonnenlicht beikommen kann. Viele Grüße, --Quartl 11:44, 14. Sep. 2010 (CEST)

f/20 ohne Stativ ist mit dem Blitz kein Problem, und es soll ja eben nicht so aussehen als waere es mit einem Blitz aufgenommen. Der bewoelkte Himmel Look ist doch genau das was ich will. Harte Schatten sind boese ;-) (stimmt natuerlich nicht immer!). Wie kommst Du denn auf die Schlussfolgerung, das nicht genug Licht verfügbar war? Die Belichtungszeit duerfte ziemlich wumpe sein, da die Blitzdauer hier den Ausschlag gibt. Ich schaetze eher dass der Sprung von f/16 nach f/20 zu einem spuerbaren Anstieg der Beugungsunschaerfe fuehrt. Meines erachtens ich die Aufloesung des Bildes trotzdem hinreichend gross. Was die Reflexe angeht kann man wohl nicht viel machen, bei so einer Oberflaeche. Aber das ist auch ok, da es hilft die Oberflaeche zu charakterisieren. Vom Blitz kommt bei der Nymphe nur der untere subtile Reflex, der obere harte kommt von der knallenden Sonne (mehr Licht pro Raumwinkel aber ein deutlich kleinerer Raumwinkel als der Blitz)! --Dschwen 16:16, 14. Sep. 2010 (CEST)
Zur Anfangsfrage: Ja, ich bin interessiert an einer Bastelanleitung. :-D ... --Micha 16:49, 14. Sep. 2010 (CEST)
Hier ist ein Foto von dem Teil commons:File:DIY_Ringflash_1.jpg mit Beschriftung. Ich hab das frei nach Schnautze gebaut. Sollte so eigentlich zum Nachbau ausreichen. --Dschwen 17:11, 17. Sep. 2010 (CEST)
Ach, das untere Bild ist bei knallender Sonne aufgenommen worden, das hätte ich jetzt nicht gedacht. Gut, das ist dann ein bischen anderes Setup. Warum reicht es dann nicht aus, die Blitzstärke einfach ein, zwei Stufen runterzuschalten? Die Belichtungszeit spielt erfahrungsgemäß bei Bildern aus der Hand auch mit Blitz eine Rolle, was die Verwacklungsunschärfe betrifft. Ich gehe deswegen mit meinem Sigma 105er auch mit Blitz nicht über f/16 raus (könnte bis f/40), müsste aber mal anhand eines Testobjekts rausfinden wo die Grenze ist, ab der man Beugungsunschärfe wirklich sieht. Viele Grüße, --Quartl 17:00, 14. Sep. 2010 (CEST)
Oh ja, macht mal bitte so eine Testreihe. Das wird bestimmt interessant! Grüße, --Alchemist-hp 17:12, 14. Sep. 2010 (CEST)
(BK) Kommt auf den Blitz an. Ich habe das mit einem alten Osram-Blitz probiert (nicht in der Staerke zu verstellen!). Werde demnaechst mal meinen 580 EX-II mal anflanschen. Ich haette die Belichtungszeit noch etwas runterschrauben koennen, aber nur bis etwa 1/200s weil der Osram-Blitz kein High-Speed-Sync unterstuetzt. Aber ich wollte aber den Himmel nicht noch dunkler haben. Find Du mal deine Beugungsunschaerfe raus, bei meinem 150mm Sigma ist f/16-f/20 das hoechste der Gefuehle, ab dann wirds grausig. Verwacklungsunschaerfe hat dieses Bild m.E. nicht. --Dschwen 17:14, 14. Sep. 2010 (CEST)
Bei Crop-Kameras fängt das mit der Beugung schon bei f/11 an sichtbar zu werden, ohne eine Lupe zur Betrachtung zu benutzen, meßbar schon früher. Jedenfalls ist f/22 schon ziemlich gruselig, f/38 fast unbrauchbar. Meine Kompaktknipse bietet f/8 in Weitwinkelstellung und f/14 bei Tele als kleinste Blende, beides ist in 100%-Ansicht völlig matschig (dabei hat die nur 5 Mpixel...) und ist wohl nur für Fotoalbumbilder in 9*13 cm akzeptabel. Nicht umsonst haben sehr viele Linsen bei etwa zwei Stufen Abblendung ihre beste Leistung und bei Kleinbild oder Crop geht es eben ab f/11 den Bach runter. -- smial 17:43, 14. Sep. 2010 (CEST)

Panorama Saarburg

Panorama Burg Saarburg

Hallo, ich habe mich in meinem Urlaub an einem 360-Grad-Panorama versucht. Siehe auch hier. Für KEB taugt das ja wohl eher nicht. Wie aber bekommt man das mit dem Himmel besser hin, vorallem wenn man Richtung Sonne knipst? Grüße -- Rainer Lippert 12:34, 18. Sep. 2010 (CEST)

Wo die Sonne sein soll sieht man vor lauter ueberbelichtung gar nicht. Da ist einfach alles weiss. Wenn Du nicht zwei Reihen Fotos machen willst bleibt nur ein Grauverlaufsfilter. Das Bild hat auch noch einen blau/lila Stich. --Dschwen 13:57, 18. Sep. 2010 (CEST)
Hallo, dass mit verschiedenen Belichtungsreihen habe ich ja schon versucht. Ohne Stativ scheint das aber nicht zu gehen. OK, Grauverlaufsfilter scheidet wohl bei meinem Kameratyp ebenfalls aus. Danke und Grüße -- Rainer Lippert 14:17, 18. Sep. 2010 (CEST)
Das stimmt so alles nicht. Bei derart weiten objektentfernungen ist ein Stativ nicht notwendig. Ausserdem meinte ich auch zwei reihen, eine oben eine unten und einfach mit belichtungsautomatik. Aber bitte unbedingt die reihenfolge hoch,runter,weiterdrehen,usw. und nicht hoch, weiterdrehen,weitderdrehen,[..],runter,weiterdrehen,weiterdrehen,[..]! --Dschwen 17:14, 19. Sep. 2010 (CEST)
Ich habe ja inzwischen schon etliche Panoramen mit Belichtungsautomatik gemacht. Bisher ist es aber noch nie gelungen, diese per Hugin zusammenzufügen. Hast du dich nicht auch schon mal an einer meiner Bilderserien versucht? Da wurde zumir gesagt, es würde nicht gehen, weil ich ohne Stativ Bilder mache. Deswegen bin ich jetzt von der Belichtungsautomatik wieder abgekommen. Deinen zweiten Teil verstehe ich glaube ich nicht richtig. Von der Saarschleife habe ich es aber glaube ich so gemacht, klappte aber auch nicht. Grüße -- Rainer Lippert 17:40, 19. Sep. 2010 (CEST)

Lizensierung aufgrund geringer Schöpfungshöhe?

Hallo zusammen, ich bitte mal um Expertise, ob sich dieses Bild wohl aufgrund geringer Schöpfungshöhe lizensieren ließe? Es handelt sich um eine Abzeichnung von im Zweiten Weltkrieg zerstörten Frankfurter Häusern aus den Jahren 1943/44, die ein Architekt vorgenommen hat. Nach meinem Dafürhalten fehlt hier das Element der Individualität, um es als Werk im Sinne des UrhG zu rechtfertigen. Gegenstimmen? --Doenertier82 15:27, 19. Sep. 2010 (CEST)

Bitte frage mal bei Ralf, Alias Marcela, an. Er kennst mit dem Zeugs gut aus. Ich würde sagen: es unterliegt dem UrhG. --Alchemist-hp 17:50, 19. Sep. 2010 (CEST)
Jemand der sowas abzeichnet hat so gut wie keine Möglichkeit einer schöpferischen Gestaltung. Es ist nur ein Abbild der Wirklichkeit. Im Gegenteil, wenn man diese Aufgabe 20 Architekturstudenten gibt, erwartet man 20 Mal fast identische Ergebnisse. Gibt man die Aufgabe bauingenieuren, wird man absolut identische Ergebnisse bekommen. Ich sehe sowas als nicht vom UrhG gedeckt an, diese Meinung dürfte aber ziemlich umstritten sein. --Marcela 10:50, 21. Sep. 2010 (CEST)

Bilharziose-Graphik

Kreislauf der Bilharziose-Erreger

Das ist gewissermassen mein Erstling, was Grafiken betrifft. Was haltet ihr davon? Ich bin interessiert an Feedback zur grafischen Gestaltung, wissenschaftlichen Korrektheit, zum Begleittext und Allgemeinverständlichkeit. Wird daraus was Gescheites, möchte ich am Bildwettbewerb des deutschen Vereins teilnehmen, daher auch das png-Format. --Ikiwaner 22:01, 21. Sep. 2010 (CEST)

Ich finde die Grafik sehr illustrativ, möglicherweise könnte es aber Stimmen geben, die sie gerne als SVG hätten. Viele Grüße, --Quartl 09:25, 22. Sep. 2010 (CEST)
SVG ist vom Bildwettbewerb ausgeschlossen. Die Auflösung reicht für einen hochqualitativen Druck auf A4. --Ikiwaner 16:19, 22. Sep. 2010 (CEST)
Illustrative schöne Grefik, gut geeignet. Typofehler beim roten Punkt 9: geschlechtsreife. Bei Punkt rot 10 finde ich zwei verbesserungsfähige Details: die Grafik des engl. Originals ist deutlicher, da sie die Tatsache illustriert (und mit Symbolen bezeichnet), dass es sich um "in Paarung befindliche" weibliche und männliche Exemplare des "Pärchen"egels handelt und: dass die Eier dann mit dem Stuhlgang oder dem Urin (je nach Art) ausgeschieden werden. das könntest Du noch in der Legende (wie im Original) ergänzen. --Hartmuoth 11:06, 22. Sep. 2010 (CEST)
Danke für das Feedback. Die Legende habe ich verbessert, den Tippfehler korrigiert. Ist das das, was du dir vorgestellt hast? --Ikiwaner 16:19, 22. Sep. 2010 (CEST)
Ja, genau so. --Hartmuoth 16:48, 22. Sep. 2010 (CEST)

Hallo, ich habe ja hier schon so einige Bäume vorgestellt ;-) Diesmal ist es ein Mammutbaum. Mit über 40 Meter Höhe und einem Stammdurchmesser von zwei Meter handelt es sich um einen der größten in Deutschland. Wie sieht es wohl hinsichtlich KEB aus? Grüße -- Rainer Lippert 17:18, 22. Sep. 2010 (CEST)

Diesmal leider auch von mir kein OK, sorry. Der Himmel ist teilweise dann doch etwas arg hell (wenngleich nicht wirklich überbelichtet), aber am meisten stört mich, dass der Baum so überschärft ist. Grüße -- Felix König 18:48, 22. Sep. 2010 (CEST)
Würde dir das zweite Bild mit einer etwas anderen Perspektive und höheren Auflösung eher zusagen? Oder liegt es generell am Motiv? Grüße -- Rainer Lippert 19:13, 22. Sep. 2010 (CEST)
Nene, das Motiv ist schön. Die Auflösung ist so zwar besser, aber war auch beim ersten nicht zu gering. Der Himmel ist deutlich besser, aber überschärft kommt es mir immer noch vor, zudem ist da ein Fleck im Himmel, den ich spontan mal nicht für einen Vogel halten würde, wobei ich mich da natürlich auch täuschen kann. Grüße -- Felix König 19:35, 22. Sep. 2010 (CEST)
Immer noch zu scharf? Da wurde aber nichts nachgeschärft. Dann setze mal die Brille ab ;-) Meinst du den Fleck links oberhalb? Ist ein Vogel. Siehe die Silhouette. Demnach aber immer noch Contra? Grüße -- Rainer Lippert 19:48, 22. Sep. 2010 (CEST)
Und noch ein Bild ;-) -- Rainer Lippert 20:43, 22. Sep. 2010 (CEST)
Nix nachgeschärft? Dann ist das also direkt aus der Kamera so ein nachbearbeitet wirkender Matsch? Urgs. Dann war die Kamera aber ordentlich überfordert. Grüße -- Felix König 15:58, 23. Sep. 2010 (CEST)
Nein, nichts. Aber das Thema hatten wir ja schon. Die Kamera schärft ja intern schon nach. Aber wir haben ja hinsichtlich der Schärfe ohnehin unterschiedliche Auffassungen ;-) Was wäre denn jetzt von den dreien noch das beste? Grüße -- Rainer Lippert 16:15, 23. Sep. 2010 (CEST)
Immer diese Kompaktknipsen ;-) Das beste ist meiner Meinung nach - kompositionstechnisch und vom Himmel her gesehen - die Nummer 3. Grüße -- Felix König 16:18, 23. Sep. 2010 (CEST)
Der Matsch aus meiner Kompaktknipsen ist teilweise auch nicht viel schlechter, wie der Matsch aus deiner Kiste ;-) Also die Nummer 3, gut. Ist das jetzt knapp Contra, oder eher noch deutlich Contra ;-) Grüße -- Rainer Lippert 17:41, 23. Sep. 2010 (CEST)
(BK) Es ist jedenfalls Contra. Teilweise sind deine Bilder qualitativ gut, aber teilweise aber eben nicht. Und das gehört imo zu letzteren, sorry. Grüße -- Felix König 17:45, 23. Sep. 2010 (CEST)
OK, habe es Verstanden ;-) Grüße -- Rainer Lippert 19:04, 23. Sep. 2010 (CEST)
Das Ergebnis

Heute war ich beim Tag der offenen Energie (geiler Name) im Kraftwerk Stuttgart-Münster. Es hat wie in Strömen geregnet, daher hatte ich mir zumindest schon mal keine schönen Kraftwerksfotos erwartet (und lag damit natürlich richtig). Auf dem Gelände war ein Festzelt aufgebaut, in dem eine Podiumsdiskussion stattfand. Ich hielt die vier diskutierenden Leute für EnBW-Mitarbeiter und habe während des Essens etwas lustlos (weil es sonst keine Motive gab) ein paar Fotos gemacht. Jetzt komme ich heim, setze mich an den PC und bemerke, dass einer davon Alfred Voß war, der einen unbebilderten Wikipedia-Artikel hat. Ich könnte mich ohrfeigen! Hätte ich gewusst, dass der Mann einen Wikipedia-Artikel hat, hätte ich problemlos bis auf 1,50m hingehen und ein paar richtig gute Porträts schießen können. Jetzt habe ich nur ein paar schlechte Tele-Aufnahmen aus 20m Entfernung. Dabei sollte ich wohl fast noch froh sein, dass ich wenigstens das habe. Wäre schönes Wetter gewesen, hätte ich nicht mal in das Zelt reingeschaut. Aber das regt mich auf (das heißt, ich rege mich über mich selbst auf...). Grüße, -- Felix König 20:14, 25. Sep. 2010 (CEST)

Darum erkundigt man sich immer *vorher*, was einem geboten wird :-P -- Memorino (D) Mentorenprogramm? 20:35, 25. Sep. 2010 (CEST)
(BK) Tja, bei so etwas hätte ich mich auch geärgert! Eigentlich über jede verpaßte Situation ... Aber das Leben geht weiter und neue Situationen/Gelegenheiten werden einem immer wieder über den Weg laufen ... Ich habe selbst z.B.: den Meteoritenfall fantastisch gut gesehen aber verpaßt zu knipsen. Und das nur ca. 1km von zu Hause entfernt. Zu Hause angekommen war selbst die Qualmspur zerflossen. Grrrrr..... Seit dem habe ich meine Knipse "fast" immer bei mir. --Alchemist-hp 20:44, 25. Sep. 2010 (CEST)
Ich habe ja sogar noch seinen Namen gehört ("Wir begrüßen Professor Voß"), nur dadurch bin ich auf die Idee gekommen, mal nachzuschauen. Das regt mich wirklich auf, denn ich hätte theoretisch ein richtig gutes Porträt schießen können. Grrrrr. Die Meteoriten hab ich versucht zu sehen, aber nicht entdeckt ;-) -- Felix König 20:57, 25. Sep. 2010 (CEST)

Meinung zu Panorama

BW 18, Brücke über das Lochmühlental, September 2010

Hallo, ich lese im Grunde hier nur mit. Aber, ich hab letztens mal ein Panorama mit Hugin erstellt und möchte mal eine allg. Meinung zu dem Bild. Es ist mit einer "Billigknipse" aus der Hand geschossen (3 Einzelbilder). --mw 17:43, 23. Sep. 2010 (CEST)

Eigentlich gar nicht schlecht. Vielleicht solltest du dem Gras in der Mitte ein bisschen mehr Platz anbieten. alofok's talk - wdw! 18:03, 23. Sep. 2010 (CEST)
"Gar nicht schlecht" halte ich für untertrieben. Ich finde, es illustriert den gezeigten Inhalt sogar sehr gut. Als Tipp: Beim nächsten Mal Hochkant-Einzelaufnahmen. Braucht zwar, wenn du hier drei Aufnahmen hattest, etwa fünf, wird dafür aber deutlich weniger schlauchig und Alofok bekommt sein gewünschtes Gras. Grüße, -- Felix König 15:17, 24. Sep. 2010 (CEST)
"Gar nicht schlecht" war im Positiven gemeint ;) Gras wäre natürlich sehr praktisch... Grüße, alofok's talk - wdw! 15:23, 24. Sep. 2010 (CEST)
Ach so, und links vielleicht noch ein paar Pixel mehr Luft, fällt mir noch so ein. Grüße, -- Felix König 15:25, 24. Sep. 2010 (CEST)
Eine Verständnisfrage: macht die Brücke einen echten Knick (Mitte des Bildes)? Oder kommt das nur durch das "falsche" Stitching zustande? Im dritten Zaunteil links neben dem Kran ist auch noch ein Stitchingfehler zu sehen. --Alchemist-hp 15:38, 24. Sep. 2010 (CEST)
Gar nicht schlecht, und damit meine ich, dass noch deutliches Verbesserungspotential gegeben ist ;-). Stitchingfehler muss weg (ist nicht nur im Zaun! Da sind die Kontrollpunkte wohl suboptimal gesetzt). Der Horizont faellt im rechten Bildteil stark nach rechts ab, und im linken Bildteil kippen die Senkrechten nach links. Das kann alles behoben werden durch einen zweiten Stitchingversuch. --Dschwen 17:43, 24. Sep. 2010 (CEST)
ich danke Euch allen für die Meinungen und Tipps zum Bild. Neuer Stichting Versuch wäre möglich, bringt aber imho nicht viel, da ich leider mit wenig "Überlappung" geknipst habe (und daher die Kontrollpunkte nicht so weit verfeinern kann). Ich werde das aber bei den nächsten Fotos beachten und eventuell mal mit Stativ versuchen (und ner besseren Kamera). --mw 21:20, 25. Sep. 2010 (CEST) PS: das mit dem Knick in der Brücke, ja, die Brücke bzw. die gesamte Trasse macht an dieser Stelle eine deutliche Kurve.
Ich nehme immer etwa 50% Ueberlapp, so kann man zur Not auch ein unscharfes/verwackeltes Bild weglassen. --Dschwen 15:25, 26. Sep. 2010 (CEST)

Greifvogelportraits

Ein paar scharfe Portraits von scharfsichtigen Greifern (und einer Eule). Wäre was für KEB dabei, der letzte Adler ist ja abgestürzt? Viele Grüße, --Quartl 02:43, 22. Sep. 2010 (CEST)

Naja, das ist die übliche Mischung aus Gefangenschaftsvögeln mit den typischen Haltungsschäden. Abgebrochener Oberschnabel beim Gänsegeier, durch einseitiges Fütterm mit Eintagsküken stark verlängerter Oberschnabel bei Steppenadler und Königsbussard, stark beschädigte Wachshaut beim Steinadler und fast durchweg hängende Augenlider, wie sie für nicht fitte Tiere typisch sind. Brauchbar für einen Artikel wäre allenfalls das Bild vom Wüstenbussard; das zeigt einen Steppenadler, bei dem man ein Merkmal, nämlich den bis zum hinteren Augenrand reichenden Schnabelwinkel, gut erkennen kann. Das ist wohl auch das selbe Tier wie auf dem anderen Foto. Gruß, --Accipiter 12:15, 22. Sep. 2010 (CEST)
Mir fielen die richtig guten Farben und die gut verteilte Schärfe auf. Der schwarze Hintergrund gefällt mir allerdings nicht. Dass es sich um Lazarettvögel handelt, kann ich nicht beurteilen. Glücklicherweise war der Fachmann zur Stelle. --Cornischong 13:06, 22. Sep. 2010 (CEST)
Vielen Dank für deine Einschätzung und die Korrektur (da bin ich wohl mit der Beschilderung durcheinander gekommen). Die hängenden Augenlider und sonstigen Fehlbildungen bemerkt man als Laie erst, wenn man drauf aufmerksam gemacht wird. Um in freier Natur so nah an ein Tier ranzukommen braucht man halt ein Monsterobjektiv, viel Geduld und Wissen. Bei mir fliegen manchmal auch ein paar Turmfalken und Mäusebussarde ums Haus, aber mehr als so ein Bild habe ich bisher nicht hinbekommen. Viele Grüße, --Quartl 13:12, 22. Sep. 2010 (CEST)
Ich hoffe, es stört euch nicht, ich würde mich dazu auch gerne noch äußern. Das Erste, was mir ins Auge gefallen war, sind die beiden Falken. Die sehen aus, als ob sie wirklich krank oder stark fehlernährt sind. Gesunde Falken haben große, runde Augen und plustern (~aufstellen) das Gefieder (eigentlich eher ein Zeichen von Entspannung) am Kopf nur derart stark auf, wenn es extrem kalt ist, sie vielleicht gerade schlafen oder wenn es ihnen wirklich dreckig geht. Vielleicht hat sich der Lannerfalke ja noch gesonnt, aber so wie die Anderen aussehen glaub ich das grade nicht. Der sieht von allen acht am schlimmsten aus. Sorry, --Buteo 05:20, 23. Sep. 2010 (CEST)
Natürlich stört es nicht wenn du deine Fachmeinung abgibst und solange es noch "Diskussionen über Bilder" und nicht "Diskussionen über Vögel" sind sehe ich auch kein größeres Problem hier, ansonsten kann man die Diskussion auch umziehen. Ich kann als Fotograf nicht wirklich beurteilen, ob die Tiere in dem Falkenhof artgerecht gehalten werden und/oder vielleicht krank sind. Ich habe noch zwei Bilder hochgeladen, die den Gesamthabitus der beiden angesprochenen Falken zeigen (qualitativ leider nicht ganz so gut wie die Portraits). Manche der Bilder wurden leicht von schräg oben aufgenommen, was den Eindruck etwas verfälschen kann. Aber bei genauerer Betrachtung schauen die beiden auch für den Laien nicht wirklich fit aus. Von den anderen habe ich natürlich auch noch mehr Bilder. Viele Grüße, --Quartl 08:43, 23. Sep. 2010 (CEST)
Solange wir keine besseren bilder haben, spricht nichts dagegen, diese hier auch in Artikeln zu verwenden. Wer in freier Wildbahn einen verletzten Vogel fotografiert, der wird das Bild auch nicht nur deshalb wegwerfen, weil der Vogel von einem anderen halb gerupft wurde oder ein gebrochenes Bein hat. Die Verletzungen und Haltungsschäden kann man allerdings in der Bildbeschreibung dokumentieren. Zoo- und andere Gefangenschaftsbilder sind im Grunde eine ethische Frage: Soll ich als Fotograf unsachgemäße Haltung unterstützen oder boykottieren? Wer sich für Letzteres entscheidet, wird wohl nie ein Schimpansenbild bekommen. Umgekehrt gilt aber auch, dass man bei der Bebilderung von Artikeln auch die Situation der Tiere im Hinterkopf behalten sollte, denn wer Schülern kommentarlos Gehegefotos vorsetzt, suggeriert ihnen, das das schon so in Ordnung wäre.-- 12:40, 27. Sep. 2010 (CEST)
Da stimme ich dir grundsätzlich zu. Nur ist einem Nicht-Biologen a priori nicht klar, ob ein Tier in einem Zoo oder, wie hier, in einem Falkenhof sachgemäß gehalten wird. Vermutlich variiert das auch innerhalb der Anlage und neben gesunden, in Gefangenschaft aufgewachsenen Tieren werden möglicherweise auch kranke oder verletzte Wildtiere aufgenommen und gepflegt. Für mich waren die Kommentare der Greifvogelexperten hier sehr erhellend und ich werde diesen Falkenhof sicher nicht weiter unterstützen. Ich würde entsprechende Hinweise auf den Zustand der einzelnen Tiere gerne auf auf den Bildbeschreibungsseiten ergänzen, wie formuliere ich die am besten? Viele Grüße, --Quartl 13:03, 27. Sep. 2010 (CEST)
Puh! In der Totale sehen die Falken wirklich noch schlimmer aus als oben, der Lanner lässt ja sogar die Flügel hängen. Wenn ich solche Vögel als Patienten in die Hand bekomme, bin ich froh, wenn die bis zum nächsten Tag überleben. Ich weiß nicht, was dieser Falkenhof da anstellt, aber das sieht für mich beinahe nach einem Fall für die Tierschutzbehörde aus. Gruß, --Accipiter 00:43, 24. Sep. 2010 (CEST)

Welches Bild ist besser?

Beide Bilder haben offensichtlich den selben Ursprung, unterscheiden sich aber in den Farben. Da es vermutlich nicht sinnvoll ist, beide zu behalten, wollte ich nachfragen, welches das bessere ist.--Trockennasenaffe 15:58, 26. Sep. 2010 (CEST)

Ganz klar: Das Erste. Bessere Farben und Kontraste und wirkt nicht so rauschig. Gruß, alofok's talk - wdw! 16:08, 26. Sep. 2010 (CEST)
Warum sollte es nicht sinnvoll sein, beide zu behalten? Es handelt sich um verschiedene Versionen, und wir haben hier kein Speicherplatzproblem. Also können bzw. sollten beide Bilder bleiben. -- Felix König 16:16, 26. Sep. 2010 (CEST)
Duplikate erhöhen den Verwaltungsaufwand ohne einen Mehrwert zu bieten. Das zweite Bild befindet sich zudem nur in der deutschen Wikipedia. Mein Ziel ist es, alle Bilder aus dem Artikel Therme Erding nach Commons zu verschieben, fals sie dort noch nicht liegen.--Trockennasenaffe 16:28, 26. Sep. 2010 (CEST)
Warum sollte es sinnvoll sein beide zu behalten? Nur weil es genug Speicherplatz gibt, heißt das doch noch lange nicht, dass man jeden Bearbeitungsversuch behalten sollte. --AngMoKio 16:35, 26. Sep. 2010 (CEST)
Doch, natürlich. Dann hat man die Auswahl zwischen mehreren Alternativen. -- Felix König 16:39, 26. Sep. 2010 (CEST)
Bei z.B. verschiedenen Perspektiven (also 2 unterschiedlichen Bilder) stimme ich ja noch zu, aber wenn ich eine bessere und eine schlechtere Version der selben Perspektive habe, sehe ich keinen Sinn die schlechtere zu behalten. Das macht Commons nur unüberchtlich... --AngMoKio 16:50, 26. Sep. 2010 (CEST)
Gelöschte Dateien bleiben weiter vorhanden. Sie sind nach dem Löschen nur unsichtbar. Gruß, alofok's talk - wdw! 16:53, 26. Sep. 2010 (CEST)
Ja, und? --Dschwen 21:24, 3. Okt. 2010 (CEST)

Rain, Steam and Speed – The Great Western Railway

Welches Bild kommt dem Original am nächsten? liesel 12:55, 27. Sep. 2010 (CEST)

Es ist zwar zig Jahre her, daß ich das Original gesehen habe - die linke Repro mit ihrer trist-grauen Farbstimmung ist meiner Erinnerung / Meinung nach am wenigsten dem Original nahekommenden. --Alupus 22:55, 3. Okt. 2010 (CEST)

HDR die Wunderkiste

Diskussion zu HDR

Folgende Diskussion wurde von KEB ausgelagert, da sie zu einen großen Umfang angenommen hat. -- (AAW) 21:38, 14. Sep. 2010 (CEST)
  • Irgendwie seltsame unwirklich Farben (Ach ist der Rasen...irgendwie garnicht schön grün!). Bin zwar keiner, der dauernd nach zig Megapixeln schreit, aber ein paar mehr dürfen es für Architektur schon sein. --Blutgretchen 21:52, 12. Sep. 2010 (CEST)
  • sieht für mich bissl aus wie ein HDR bild...was mich nicht stören würd, aber doch bissl klein geraten das ganze. --HylgeriaK 21:59, 12. Sep. 2010 (CEST)
    • Ich hoffe hier wird HDR nicht wieder mit freizügigem und kritisierten Tonemapping in einen Topf geworfen, was mit HDR im eigentlichen Sinne nicht einmal was zu tun hat. -- (AAW) 22:14, 12. Sep. 2010 (CEST)
    • @Alchemist-hp: Beleuchtungsfusion ist ja nur ein Verfahren um mit nicht HDR-fähigen Kameras annähernd vergleichbare Ergebnisse zu erzielen. Mit hilfe eines wohl definierten Mappings (bewusst nicht Tonemapping genannt) ist es dann möglich die nicht HDR-Aufnahmen zu einem HDR-Bild zu vereinen. Dabei wird aber eben nur eine Zusammensetzung unterschiedlicher Belichtungsstufen vorgenommen, sodass man am Ende ein Bild hat, dass eine höhere Farbtiefe zu bieten hat, als das handelsübliche Displays wiedergeben können. Damit die das können wird wieder ein Mapping benötigt, was aber bei strikter Anwendung flaue Ergebnisse produziert. Aus diesem Grund hat man sich das Tonemapping überlegt, welches ermöglicht bestimmte Kontrastumfänge anzupassen und damit den sichtbaren Bereich nicht real wiederzugeben. Dabei hat man aber gleich so viel Freiheit gelassen, dass es möglich ist solche Farbspielerein ohne merkliches Rauschen zu betreiben. Wovon (leider) allzu häufig Gebrauch gemacht wird um Bilder unnötig aufzusexen. Dies hätte bei dem Bild auch mit einer einfachen Aufnahme funktioniert, wenn man erst durch Stitching ein riesiges Bild angefertigt, es mies bearbeitet und anschließend zur Rauschreduzierung verkleinert hätte. (Mehrere Wege führen nach Rom, wobei letzterer deutlich macht, dass dies eine schlichte Farbverfälschung ist) -- (AAW) 12:17, 13. Sep. 2010 (CEST)
Die Artikel High_Dynamic_Range_Image + HDRI-Erzeugung_aus_Belichtungsreihen + Belichtungsfusion + Tonemapping habe ich schon studiert. Ziel ist bei allen ein ähnliches, nämlich mehr aus einer Kamera herauszuholen. Und Tonemapping setzt ja HDR voraus. ... Wir wollen hier mal nicht päpstlicher als der Papst sein!--Alchemist-hp 12:41, 13. Sep. 2010 (CEST) P.S. Mensch, dann ist ja meine Kamera fast eine vollständige HDR Kamera, sie bietet 14Bit Farbtiefe je Kanal (R,G,B) :-)
Nö! Vollständiges HDR wären bei mir 32 Bit float. Aber ob deine Kamera nun 8, 14 oder 24 Bit (pro Kanal) als Ausgabeformat liefert sagt ja noch lange nichts darüber aus, wie gut sie die auch wirklich ausschöpfen kann. ;-) -- (AAW) 14:16, 13. Sep. 2010 (CEST)
@ Felix König: Es ist zwar herzensallerliebst, dass du Michael Freeman verlinkst, aber weder die angesächsische noch die deutschsprachige Wikipedia geben das Buch in der Literaturliste an. --Cornischong 18:07, 13. Sep. 2010 (CEST)
Sollte man dieses Buch kennen? Nur gut, dass ich so gut wie nie eine Stimme hier abgebe. Grüße -- Rainer Lippert 18:27, 13. Sep. 2010 (CEST)
Man kann auch eine eigene Meinung, Intellekt und Kreativität haben ohne von anderen "versaut" worden zu sein. Man ist dann unvoreingenommen. So viel zur Lektüre von "sonstigen" Leuten. --Alchemist-hp 18:30, 13. Sep. 2010 (CEST)
Ich wollte eigentlich nur sagen, dass ich dieses Buch nicht kenne. Ich kenne eigentlich überhaupt kein Buch speziell über Fotografie, besitze auch keines. Grüße -- Rainer Lippert 18:34, 13. Sep. 2010 (CEST)
Michael Freemans 101 Top-Tipps für Digitalfotografen, habe ich als Zehnjähriger zu Kompaktzeiten gelesen. Muss man nicht kennen, aber danach weiß man immerhin den Unterschied zwischen HDR und Tonemapping ;-) (und auch noch einiges mehr, Focus stacking ist dort auch interessant dargelegt). Tonemapping setzt übrigens zwar ursprünglich ein bestehendes HDR-Bild voraus (und das, was per Definition echtes Tonemapping ist, tut das natürlich auch heute noch), aber es gibt inzwischen auch Programme, die auf ein normales, ungeHDRtes Foto (Pseudo-)Tonemapping anwenden. Die Ergebnisse können unterhaltsam und zur Illustration bisweilen sogar positiv sein, aber für ne Enzyklopädie nicht wirklich. -- Felix König 20:05, 13. Sep. 2010 (CEST)
Die simpelste Variante diesen Effekt mit gewöhnlicher Grafiksoftware zu erreichen ist es ein Bild in mehrere Ebenen zu duplizieren (je mehr desto besser). Anschließend verwendet man einen Gaußfilter der man am besten potentiell von Ebene zu Ebene vergrößert (Original bleibt). Anschließend stellt man alle Layer oberhalb des Ursprungsbildes auf "Overlay" und setzt deren Wirkung (ca. 20% bei 5 Layern) herab. Ergebnis: Simpelstes Tonemapping auf 8 Bit Bildern, mit allen Nebenwirkungen. ;-) -- (AAW) 20:20, 13. Sep. 2010 (CEST)
Das ist kein Tone mapping (die Eingabedaten für Tone mapping sind immer HDR-Bilder), sondern "Pseudo-HDR". Und führt dazu, dass man nun nicht nur gutes Tone mapping von schlechtem Tone mapping, sondern auch von diesen Bildbearbeitungen unterscheiden muss. Niemand weiß, welche der Bilder in commons:Category:Tone-mapped HDR images wirklich durch Tone mapping entstanden sind, und welche durch Pseudo-HDR. --Phrood 19:02, 14. Sep. 2010 (CEST)
Das Verfahren ist das gleiche. Nur das die Ausgangsdaten eine geringeren Kontrastumfang aufzuweisen. Dies resultiert in unschönem Rauschen und stufigen Farbverläufen. Für Tonemapping ist kein HDR auf der Eingangsseite notwendig, aber wünschenswert. -- (AAW) 19:23, 14. Sep. 2010 (CEST)
Nein, das ist nicht richtig. Beim Tonemapping wird auf die HDR-Ausgangsdaten eine Kurve (entweder die gleiche für alle Pixel oder je Pixel unterschiedliche) angewandt, die die Eingabe- mit der Ausgabehelligkeit in Beziehung setzt. Dies ist beim Pseudo-HDR nicht der Fall. Ich kann bei Interesse Literaturangaben liefern. --Phrood 20:20, 14. Sep. 2010 (CEST)
(BK) Was meinst Du ueberhaupt mit Pseudo-HDR? Das erscheint mir ein reichlich sinnloser Begriff zu sein. Dass die Eingabedaten für Tone mapping [..] immer HDR-Bilder sind halte ich fuer ein bisschen Haarspalterei. Richtig ist aber das zumindest intern ein HDR Bild in der Software erzeugt wird. Wobei fuer den User die Eingabedaten durchaus eine Belichtungsreihe sein koennen, und insofern die Blackbox fuer "HDR"-Bilder genauso ausschaut wie die Blackbox fuer Belichtungsfusion (meinst Du das etwa mit Pseudo-HDR? --Dschwen 21:03, 14. Sep. 2010 (CEST)

@Phrood: Es ist ein Mapping (sprich Kurven) die von einem Wertebereich A auf einen Wertebereich B abbilden. Dabei wird der Kontrast entweder gestaucht oder gestreckt. Dies funktioniert unabhängig davon ob die Eingangsdaten in HDR vorliegen oder nicht. Die erzielbaren Effekte sind die gleichen, nur das die Qualität darunter eben leidet, wenn der Eingang keinen hohen Kontrastumfang besitzt. Ein HDR-Bild besitzt eben nur einen größeren Wertebereich für A. Nicht über das gesamte Bild gleichmäßig mappendes HDR erfolgt durch Bluring der Eingangsdaten um den Kontrast/das Mapping während der Umsetzung lokal anzupassen, womit dann anschließend A auf B gemappt wird. Darunter versteht man dann Tonemapping, da es kein gleichmäßiges Mapping über das gesamte Bild ist. Ob hier ein HDR die Eingangsdaten liefert oder ein stinknormales Bild, das zuvor auf HDR hochgerechnet wird, spielt da keine Rolle. Es leidet halt eben nur die Qualität während der erzielbare Effekt gleich ist.

Stell es dir einfach so vor als wenn du ein normales Bild in einem HDR-Format abspeicherst nachdem du dessen Kontrast über den normalen Umfang hinaus erhöht hast. Dies ist dann zwar stufig, hat aber den selben Werteumfang. -- (AAW) 20:58, 14. Sep. 2010 (CEST)

Das kann doch kaum einer richtig verstehen was Ihr hier von Euch gibt!? Nimmt doch einfach mal ein Beispiel anhand dessen Ihr dann erzählen könnt was man alles tun muss und erreichen kann. Beispiel 14 Bit RAW Bilder einer Canon EOS ... Wie komme ich zu einem HDR Bild, wie komme ich zu einem Tonemapping Bild, was wird bei einer Belichtungsfusion gemacht etc. Weitergehende Diskussion wohl dann eher, auf der DÜB-Seite. Kann bitte jemand den Abschnitt gleich nach dahin verlagern? Danke, --Alchemist-hp 21:22, 14. Sep. 2010 (CEST)

Belichtungsfusion und Mapping

Bei der Belichtungsfusion werden zunächst Bilder mit unterschiedlichen Helligkeitseinstellungen aufgenommen. Sodass einige davon überbelichtet oder unterbelichtet sind. Anschließend werden diese eine gewisse Bit-Zahl in der Dynamik besitzenden Bilder (trivial gehe ich jetzt mal von 8 Bit aus) auf einen größeren Dynamikbereich gemappt. Dabei überschneiden sich aber in alle Regel die Kontrastbereiche und es muss teilweise gemittelt werden. Anschaulich mal grob skizziert:

          Dynamikbereich des 1. Bildes
    |---------------------------------------|
    | Bild 1: Überblichtet                  |
    | (guter Kontrast bei dunklen Stellen)  |
    |                       | Bild 2: Normal                                |
    |                       | (schwächen bei hellen und dunklen Bereichen)  |
    |                       |               |          | Bild 3: Unterbelichtet               |
    |                       |               |          | (guter Kontrast in hellen Bereichen) |
0   |                       |               |          |                    |                 |  ∞
- --|-----------------------|---------------|----------|--------------------|-----------------|--> HDR-Bereich (zunehmende Intensität,
    |                        \ Überlappung /           \    Überlappung     /                 |    nicht durch normale Displays wiedergebbar)
    |                                                                                         |
    | ----------------------- Dynamikbereich der HDR-Aufnahme --------------------------------|
     \                                                                                       /
      \                                                                                     /
       \                                                                                   /
                                                ...
                    \                                                   /
                     \   Stauchung des Bereichs um wieder zurück in    /
                      \  den darstellbaren Bereich des Intensitäts-   /
                       \ spektrums von Monitoren zu gelangen         /
                        |-------------------------------------------|
                                 Dynamikbereich des Displays

Den oberen Teil dieser Kette, also hin zum HDR-Bild, bezeichnet man als Belichtungsfusion, da der Kontrastbereich durch mehrere vereinte Aufnahmen vergrößert wird. Im Bereich der Überlappung kann zudem auch das Rauschen reduziert werden, da eine Mittelung von zwei korrespondierenden Werten erfolgt. Das Mapping als auch das Tonemapping erfolgt im unteren Bereich. Beim 1:1 Mapping kann immer nur einen Ausschnitt aus dem Intensitätspektrum des Originalbildes betrachtet werden. Überstehende Ränder werden abgeschnitten. Bei anderen Mapping-Varianten kann der Bereich gestaucht werden. Wird er linear gestaucht ist das Ergebnis eines recht flaues Bild, da die Mitten dominieren, bzw. der Kontrast reduziert wird. Es ergibt sich kein Vorteil gegenüber der normalen Aufnahme und der Ausgabe auf einem Display (von der Rauchreduzierung und geringeren Verlusten bei nachträglicher Helligkeitsanpassung, insbesondere bei den Farben mal abgesehen).

Beispiel für sichtbaren Saum durch adaptiven Filter

Anders ist es beim Tone-Mapping. Hier wird nicht über das gesamte Bild das gleiche Mapping angewandt, sondern ausgehend von dem bestehenden Farbwert im HDR-Bild ein unterschiedliches Mapping vorgenommen. Dadurch können dunkle Bereiche des HDR vor der Ausgabe aufgehellt werden und hellere Bereiche auf andere Art reduziert werden. Erreicht wird dies, indem zunächst eine weichgezeichnete Kopie des Bildes berechnet wird. Der Farbwert von dieser wird dann benutzt um das Mapping zu beeinflussen. Folge bei richtiger Einstellung sind gesättigtere Farben und eine gleichmäßigere Ausleuchtung des Bildes. Wird es übertrieben, wird aber der Saum, der durch das adaptive Weichzeichnen entsteht sichtbar. Resultat ist dann z.B. dieses Leuchten hinter dem Turm in dem Beispiel.

Falls sich wer fragt was ein adaptiver Weichzeichner ist, dem sei gesagt, dass es ein normaler Weichzeichner ist, der aber Kanten stehen lässt, d.h. in den Mittelwert nur Pixel einbezieht die sich vom aktuell zu berechnenden Pixel nur gering unterscheiden. -- (AAW) 22:20, 14. Sep. 2010 (CEST)

Mal so nebenbei: " Resultat ist dann z.B. dieses Leuchten hinter dem Turm in dem Beispiel." Ich sehe weder einen Saum, noch ein Leuchten noch einen Turm; ich sehe nicht mal das Bild, und das mit Safri 5.0.2. --Cornischong 22:29, 14. Sep. 2010 (CEST)
Letzter Stand: Jetzt sehe ich mal ein Bild. Vielen Dank. --Cornischong 22:31, 14. Sep. 2010 (CEST)
Sorry. Das war aus versehen ein Bild von EN, was nicht auf Commons lag. Hab es daher ausgetauscht. Effekt ist der gleiche. -- (AAW) 22:34, 14. Sep. 2010 (CEST)
Auf alle Fälle schon mal ein dickes Danke schön. Es muß aber noch verdaut und anhand eigener Experimente nachvollzogen werden. Grüße, --Alchemist-hp 23:15, 14. Sep. 2010 (CEST)
Tonemapping bei nicht ausreichendem Dynamikumfang der Quelle

Hier noch ein kleiner Test, der zeigt das Tonemapping auch bei Nicht-HDR-Bildern möglich ist. Es zeigt aber auch warum dafür HDR-Bilder als Quelle sinnvoll sind. Es entsteht nämlich eine gehörige Portion rauschen und es fehlen eben Farbzwischenwerte in den stark modifizierten Bereichen. Deshalb ist Tonemapping auch bei Bildern mit schlechtem Dynamikumfang nicht wirklich möglich und setzt eben ein HDR-Bild voraus. Das kann entweder durch eine Kamera entstehen die HDR durch einen genügend großen Dynamikumfang beherrscht oder eben durch Belichtungsfusion. Ersteres setzt teure "Hardware" voraus, während zweites eben eine preiswerte Alternative ist, die aber nur bei statischen Motiven wirklich umsetzbar ist, es sei denn man verwendet mehrere Kameras, die synchron aufnehmen, was dann aber auch schon wieder teuer wird ;-) -- (AAW) 00:28, 15. Sep. 2010 (CEST)


Der Saum (Halo-Effekte) entsteht nicht, "wenn es übertrieben wird", sondern weil für jedes Pixel die lokale Umgebungshelligkeit auf naive Weise berechnet wird (indem ein Durchschnittswert ermittelt wird). Was dann passiert, ist, dass bei Kanten die Helligkeit auf der dunklen/hellen Seite über- bzw. unterschätzt wird und zu helle bzw. zu dunkle Resultate entstehen. Es handelt sich um ein Artefakt des verwendeten Algorithmus. Erst als die bilaterale Filterung erfunden wurde, konnte man diesen unerwünschten Effekt zuverlässig vermeiden, ich weiß aber nicht, ob aktuelle Software diese unterstützt. Naive Anwender glauben, dass Halo-Effekte zwangsläufig zu Tone Mapping gehören oder sogar ein erwünschter künstlerischer Effekt (HDR-Look) sind, obwohl das gar nicht stimmt und sie sich mit modernen Algorithmen (oder auch mit globalen Tone-Mapping-Algorithmen, bei denen die Kurve für alle Pixel gleich ist) vollständig vermeiden ließen.

Tone Mapping dient nicht in erster Linie dem Erreichen eines bestimmten Effekts, sondern der Dynamikkompression von HDR-Bildern:

  • "...algorithms that prepare HDR images for display on LDR display devices. These algorithms are called tone-reproduction or tone-mapping operators" (Reinhard, High Dynamic Range Imaging, S. 223)
  • "Beim Tonemapping [...] wird der Dynamikumfang verkleinert, damit er mit einem LDR-Ausgabegerät wiedergegeben werden kann." (Bloch, HDR-Handbuch, S. 158 f.)
  • "To solve the problem of transforming high dynamic range images to the limited range of most existing devices, the so-called tone mapping operators are being developed." (Hoefflinger, High-Dynamic Range (HDR) Vision), S. 147

Pseudo-HDR (Bildbearbeitung mit verschiedenen Ebenen ausgehend von einem LDR-Bild) ist nach dieser Definition definitiv kein Tone mapping. --Phrood 18:34, 15. Sep. 2010 (CEST)

Ach so, ein LDR Bild soll das Ausgangsmaterial sein. Damit habe ich vor dreieinhalb Jahren auch mal rumexperimentiert: commons:User:Dschwen/PDRI, wusste nicht, dass das Pseudo-HDR genannt wird. --Dschwen 19:22, 15. Sep. 2010 (CEST)
Es gibt von der Berechnungsart einfach keinen Unterschied ob das Bild in HDR vorliegt oder nicht. Einzig der Werteumfang der Eingabe muss bekannt sein. Jedoch kommt es durch die Kompression der Werte in bestimmten Bereichen zu stufigen Übergängen wenn keine Zwischenwerte wie bei einem HDR existieren. (Ist dann eine negative Kompression, bzw. eine Zerrung) Der bilaterale Filter (auch Adaptiver Filter genannt) erzeugt ebenfalls solche Artefakte, da auch er nur schätzen kann. Wirklich perfekt einsetzbar ist der auch nur wenn er als Determinator sich auf andere Dinge als Farben stützen kann, wie z.B. in 3D-Programmen wo Normalen und Z-Werte existieren. Er reduziert diesen Halo-Effekt allerdings erheblich. Letztlich kann man nur sagen: Je höher die Farbtiefe/Dynamik des Ausgangsbildes, desto besser funktionieren diese Verfahren und am sinnvollsten sind sie anzuwenden. -- (AAW) 00:44, 16. Sep. 2010 (CEST)
Es gibt adaptive Weichzeichnungsfilter, die große Probleme verursachen. Der exakte bilaterale Filter arbeitet auch nur heuristisch, aber er erzeugt ganz sicher nicht solche Säume wie im Bild oben. Dieses Bild habe ich mit einer eigenen Implementierung erzeugt, und sie funktioniert hervorragend. Die Kanten bleiben erhalten.
Und wozu sollte man Tone mapping auf ein LDR-Bild anwenden? Um den Kontrast zu reduzieren? Dies ließe sich doch sicher robuster mit den üblichen Helligkeits/-Kontrastreglern bewerkstelligen. --Phrood 09:15, 16. Sep. 2010 (CEST)
Dschwen hat schon ein typisches Beispiel gepostet, wo bestimmte Bereiche einfach im Dunklen versumpfen. Vorausgesetzt man hat ein sehr großes Bild (z.B. durch Stitching), dann kann man das LDR in ein HDR konvertieren (es fehlen natürlich Zwischenwerte), es als HDR runterskalieren (was mehr Zwischenstufen ergibt) und anschließend Tonemapping verwenden um zu dunkle Bereiche im im Helligkeitsbereich anzupassen. Setzt natürlich einen möglichst großen Dynamikumfang der Kamera vorraus. D.h. das Ausgangsbild darf weder partiell überbelichtet (cut bei 255) noch unterbelichtet (cut bei 0) sein. Natürlich sehe ich hier auch Bracketing/Belichtungsfusion als die bessere Lösung an. Soll nur eben heißen, das beide Verfahren möglich sind. Insbesondere mit Hinblick auf die Pixelwahndiskussion könnte das interessant sein. -- (AAW) 10:09, 16. Sep. 2010 (CEST)
Wenn man schon ein Panorama macht, dann kann man auch einfacher echtes HDR ohne Belichtungsreihe haben: einfach Belichtungsautomatik einschalten. Voraussetzung ist, das der Dynamikbereich lokal (in jedem Einzelbild) ausreichend ist. --Dschwen 14:08, 16. Sep. 2010 (CEST)
Das stimmt schon. Sollte aber gerade bei Aufnahmen im Stadtgebiet oder Gebirge fast unmöglich sein diese Situation anzutreffen. -- (AAW) 14:45, 16. Sep. 2010 (CEST)
Im Stadtgebiet bei dieser Aufnahme genau so gemacht. --Dschwen 15:16, 16. Sep. 2010 (CEST)
"...kann man auch einfacher echtes HDR ohne Belichtungsreihe haben: einfach Belichtungsautomatik einschalten. ..." d.h., auf Dein Bild bezogen, das es reicht wenn durch die Belichtungsautomatik in den "unteren" Bereichen anders belichtet wurde als in den "oberen" Bereichen z.B. am Himmel??? Immer bezogen darauf das man genügend viele Einzelbilder für ein Stitching hat? Gruß, --Alchemist-hp 15:34, 16. Sep. 2010 (CEST)
Um mal gleich auf beides zu antworten. Dies ist durchaus möglich und kann bei einem Stitching-Programm, welches selbst HDR und Helligkeitsausgleich unterstützt, zu vergleichbaren Ergebnissen führen. Problematisch wird es halt nur dann wenn der Kontrastumfang innerhalb eines Einzelbildes sehr groß ist, wie etwa bei strahlendem Sonnenschein mit Spiegelungen und dunklem Gebüsch im selben Abschnitt. Da reicht dann die Dynamik oft nicht mehr aus und es entstehen sichtbare Fehler, die man nur mit unterschiedlichen Belichtungsstufen komprimieren kann. Gut das es bei Dschwens Beispiel gerade etwas diesig war. In den dunklen Bereichen ist nämlich schon einiges an Rauschen und ein Verlust an Sättigung erkennbar. ;-)
Ideal wäre dazu eine Automatik bei der Kamera und ein Stitchingprogramm das dann mehrere Blendenstufen gleichzeitig verwendet. Dann könnte man ein vollständgiges HDR auch bei Stitching erreichen und hätte danach alle Freiheiten bei der Dynamikkompression die aktuelles Tonemapping bietet. -- (AAW) 15:55, 16. Sep. 2010 (CEST)
Dieses Programm gibt es und es heisst Hugin. Mein Bild ist mit einem 150mm Objektiv gemacht. Damit ist der Bildausschnitt pro Frame so klein, dass der Dynamikbereich immer ausreicht (insbesondere wenn man die 50% Ueberlapp mit den Nachbarbildern beruecksichtigt, was dann schon fast wieder eine belichtungsreihe ist :-) ). --Dschwen 16:25, 16. Sep. 2010 (CEST)
Das ist ja auch genau der Grund warum es funktioniert. Jedoch ist es dann auch nur angenähert vergleichbares Ergebnis, da dein Werteumfang geringer ist als mit mehreren Belichtungsreihen. Ist halt mal wieder die Krux bei HDR, dass die Pixel zwar quasi beliebige Werte annehmen können, aber die tatsächliche Anzahl von Quantisierungsstufen nicht definiert ist. Deshalb kann man auch ein LDR in ein HDR umwandeln, was dann technisch gesehen ein HDR ist, aber eben nicht die gleiche Qualität bietet. -- (AAW) 16:39, 16. Sep. 2010 (CEST)
Der Werteumfang ist nicht geringer. --Dschwen 16:50, 16. Sep. 2010 (CEST)
Doch ist er. Da verglichen mit 8-Bit Bildern hier auch noch Werte wie z.B. 120,7 existieren. Selbst wenn ein HDR den selben Helligkeitsbereich abdeckt, besitzt es eine feinstufigere Farbauflösung (der 2. Vorteil gegenüber dem höheren Dynamik- bzw. Helligkeitsbereich), was sich dann beim Mapping bemerkbar macht. Darauf kannst du allerdings bei deiner Methode verzichten, da es sich aus der Unterschiedlichen Helligkeit der Aufnahmen bereits ergibt, jedoch nicht so exakt ist. Jetzt den genauen Unterschied abzuschätzen fällt natürlich schwer, da hier viele Parameter reinspielen. -- (AAW) 17:23, 16. Sep. 2010 (CEST)
Immer wenn ein HDR Bild aus LDR Bildern zusammengerechnet wird ist der limitierende Faktor die Werte-Granularitaet des Ausgangsmaterials. Du magst zwar 120,7 haben, aber das Nachbarpixel hat dann halt 119,7. Die "Mittelung" mag das leicht modulieren (wobei ich vermute, dass auch eher noise als signal dafuer verantwortlich ist), aber im grossen und ganzen sind lokal die Pixelinformationen aus dem jeweils optimal belichteten Ausgangsbild dominant. --Dschwen 20:09, 16. Sep. 2010 (CEST)
Das mag sein. Allerdings wenn man gutes HDR haben will, dann nimmt man auch z.B. auch 5 oder sogar mehr Belichtungsstufen. Der beste Arbeitsbereich einer Kamera ist dabei beim oberen Drittel der Helligkeit. Wenn jeweils dieses genutzt wird, dann ergeben sich bessere Farben als wenn aus z.B. nur zwei Stufen interpoliert wird, von deren Einzelbildern auch die dunklen und überhellen Bereiche mit einbezogen werden. Insgesamt ist das Ergebnis ein gutes Stück besser. Aber das soll ja nicht heißen, das man mit deiner Methode (bzw. der von Hugin) nicht leben könnte. Wenn der Unterschied marginal ist, dann lohnt sich kein besseres Verfahren. Nur wo man wirklich mit Extremen zu kämpfen hat, da wird sich dann schon ein sichtbarer Unterschied ergeben. -- (AAW) 21:08, 16. Sep. 2010 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: alofok* 15:50, 2. Jan. 2011 (CET)

ich hab den noch lesenswerten Artikel zu der frühen Kamera um ein paar Links, Literatur und Bilder ergänzt. Betreffs Verschluss/Auslöser wird hier und hier zwischen einer "Original Kodak" (barrel shutter) und einer "No. 1" (sector shutter) unterschieden, das kommt im Artikel aber nicht raus. Kann jmd helfen? -- Cherubino 20:50, 23. Sep. 2010 (CEST)

Archivierung dieses Abschnittes wurde gewünscht von: alofok* 21:40, 10. Jan. 2011 (CET)