Deutsche in den Vereinigten Staaten

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Wendung Deutsche in den USA ist mehrdeutig. Gemeint sein könnten:

Für alle drei Gruppen siehe auch: Geschichte der Deutschen in den Vereinigten Staaten