Die Gabe zu heilen: Szenenbilder

Dokumentarfilm über ein Phänomen, das man in Industrieländern wie Deutschland im 21. Jahrhundert lange ausgestorben glaubte.

Zum Thema
Die Gabe zu heilen
Dokumentarfilm Deutschland 2017
Weitere Filmgalerien
2021