Suchergebnis

Wilderei in Deutschland

[HR] alles wissen

Inhalt in der Mediathek aufrufen >

Wilderei - da denkt man an ferne Länder und exotische Tiere. Doch auch in Deutschland werden immer wieder Tiere illegal getötet oder gefangen und lebend verkauft. Oft geht es um das Fleisch, das sich gut vermarkten lässt...

Kommentare, Bewertungen und Links aufrufen >