¿En qué lugar de la Tierra está Alemania?

El mundo tiene muchos lugares apasionantes. ¿En qué lugar de la Tierra está Alemania?   

Alemania está en Europa. Está al otro lado del océano Atlántico, frente a Estados Unidos. Hay muchas cosas que ver en Alemania.