Der Weinbau in Deutschland und seine Geschichte
Wein ist nicht nur ein Genussmittel, sondern auch ein christliches Symbol der Lebensfreude und der Nähe Gottes. In der Bibel wird Wein an zahlreichen Stellen erwähnt. Wer sich näher mit dem christlichen Bezug beschäftigen möchte, dem empfehle ich das Buch „Der Wein – Geschenk des Himmels und der Erde“ von Pater Anselm Grün.
Aber woher kommt der Wein bzw. der Weinbau in Deutschland überhaupt?