Wildtiere in Deutschland – W – A bis Z – Lexikon – neuneinhalb – Kinder – W – A bis Z – Lexikon – neuneinhalb – Kinder https://kinder.wdr.de/tv/neuneinhalb/neuneinhalb-lexikon/lexikon/w/lexikon-wildtiere-in-deutschland-100.amp
Wildtiere nennt man alle Tiere, die normalerweise in der Wildnis leben. Die bekanntesten Wildtiere in Deutschland sind wohl die großen Raubtiere wie Bär, Wolf oder Luchs.
Kein Wunder: Anders als auf dem Land werden Wildtiere in den Städten kaum gejagt.