Wilderei in Deutschland
[HR] alles wissen
| 10 min
Inhalt in der Mediathek aufrufen >
Wilderei - da denkt man an ferne Länder und exotische Tiere. Doch auch in Deutschland werden immer wieder Tiere illegal getötet oder gefangen und lebend verkauft. Oft geht es um das Fleisch, das sich gut vermarkten lässt...