Ökologie der Wirbeltiere

Text
Read preview
Mark as finished
How to read the book after purchase
Font:Smaller АаLarger Aa

Grenzen der Optimierungsmodelle

Natürlich darf man nicht davon ausgehen, dass ein nahrungssuchendes Tier stets wie ein Computer agiert und jede Entscheidung auf eine detaillierte Kosten-Nutzen-Analyse abstützt. Aus diesem Grund ist die Theorie der optimierten Nahrungssuche zu Beginn auch von einigen Wissenschaftlern pauschal abgelehnt worden. Mittlerweile liegt eine größere Zahl von Studien vor, welche die Voraussagen an Daten aus dem Feld oder dem Labor maßen. Stephens D. W. & Krebs (1986) kamen zum Schluss, dass 71 % der bis dahin veröffentlichten 60 Arbeiten Unterstützung zugunsten der Theorie lieferten und nur 13 % den Voraussagen widersprachen. Allerdings testeten 64 % der Arbeiten nur qualitative Voraussagen. Die bereits erwähnte Metaanalyse aller 134 Studien bis 1995 durch Sih & Christensen (2001) fand, dass die Ergebnisse sich zwischen Prädatoren mobiler und immobiler Beute unterschieden (s. oben). Die Diskrepanz zu den Voraussagen bei den Prädatoren mobiler Beute lässt sich damit erklären, dass für sie die Antreffrate und der Fangerfolg wichtiger sind als die eigene Variation im Entscheidungsverhalten. Bei Arten, die unbewegliche Nahrung aufnehmen (etwa Herbivoren, Nektarfressern oder den Beispielen der muschelfressenden Vögel), ist die realisierte Nahrung hingegen viel eher das Ergebnis der eigenen Entscheidungen. Tatsächlich entsprachen 21 von 26 der in Sih & Christensen (2001) ausgewerteten Studien an Vögeln und Säugetieren mit nicht beweglicher Nahrung zumindest in qualitativer Hinsicht den Erwartungen.


Abb. 3.4 Vorgehen der Sundkrähe beim Aufbrechen der Stachelschnecken (Abbildung neu gezeichnet nach Zach 1979). Die Kurven zeigen die Zahl der notwendigen Abwürfe, um kleine, mittelgroße und große Schnecken bei verschiedenen Fallhöhen zu zerbrechen. Die Krähen suchen sich nur große Schnecken aus und werfen sie im Mittel von 5,2 m Höhe aus ab (Pfeil). Damit minimieren sie die totale Steighöhe (Zahl der Flüge x Höhe); hätten sie jedoch die Nettoaufnahmerate an Energie maximiert, so wären wesentlich größere Fallhöhen von etwa 20 m notwendig gewesen (Plowright et al. 1989). Die Abweichung von der theoretischen Optimierung mag damit zu tun haben, dass bei größeren Fallhöhen Schnecken eher verloren gehen (Zach 1979). Graben die Sundkrähen hingegen Muscheln aus, so verschmähen sie die kleineren unter den ausgegrabenen Individuen und öffnen und verzehren nur die größeren ab etwa 24 mm Länge; sie erreichen so die maximal mögliche Nettoaufnahmerate an Energie (Richardson & Verbeek 1986).


Abb. 3.5 Austernfischer (Haematopus ostralegus) fressen Herzmuscheln, indem sie deren Schale aufhacken. Beim Bearbeiten größerer Individuen verletzen sie ihre Schnabelspitze, wodurch sie später weniger effizient sind; bei kleineren Muscheln bleibt der Schnabel intakt. Links: Die obere graue Linie zeigt die Profitabilität als Funktion der Schalengröße ohne Berücksichtigung späterer Behinderung, die gestrichelte schwarze Linie die Profitabilität, wenn die Verletzungsgefahr bei allen Muschelgrößen als 1 angenommen wird, und die ausgezogene schwarze Linie die Profitabilität unter Berücksichtigung der tatsächlichen Verletzungsrate. Es ergibt sich eine optimale Profitabilität genau in dem Größenbereich, aus dem die Austernfischer die Herzmuscheln bevorzugt auswählen (senkrechter Balken) (Abbildung neu gezeichnet nach Rutten et al. 2006).

Die Übereinstimmung von Testresultaten und Theorie setzt auch voraus, dass die Studien die Grenzen oder constraints berücksichtigen, die Kosten verursachen und die Tiere in den Entscheidungen bei der Nahrungssuche einschränken. Einschränkungen im Sinne von Kosten beim Handling haben wir am Beispiel der Sundkrähen kennengelernt. Oftmals sind die constraints aber nicht unmittelbar offenkundig. So können versteckte Kosten in Form von Verletzungsgefahr auftreten, etwa beim Bearbeiten von hartschaligen Mollusken (Abb. 3.5). Für viele Prädatoren ist die Verletzungsgefahr beim Überwältigen von größerer Beute von ernst zu nehmender Bedeutung. Der Leopard (Panthera pardus) erbeutet zwar eine breite Palette von Arten und ist auch imstande, große Beute (bis zu 200 kg) zu schlagen, konzentriert sich aber auf kleinere, wenig wehrhafte Arten (10–40 kg, oft um 25 kg). Als Einzeljäger kann er im Gegensatz zu sozial jagenden Arten wie Löwe oder Afrikanischem Wildhund (Lycaon pictus) bei Verletzungen nicht darauf zählen, vom Rudel unterstützt zu werden (Hayward M. W. et al. 2006). Löwen erbeuten daher auch, gemessen an der eigenen Körpermasse, wesentlich größere Beute im präferierten Bereich von 200–350 kg (Hayward M. W. & Kerley 2005). Allerdings ließ sich für obligate Carnivoren verschiedener Körpergröße zeigen, dass die Profitabilität einer Beute oberhalb des 1,9-Fachen der eigenen Körpermasse nicht mehr zunimmt (Chakrabarti et al. 2016).


Abb. 3.6 Modellierte und tatsächliche Nahrungszusammensetzung beim Elch. Die Nahrungszusammensetzung wird über die Mindestbedürfnisse an Natrium und Energie sowie die maximale Pansenkapazität eingegrenzt. Wasserpflanzen sind reich an Natrium, aber relativ energiearm; sie sind deshalb bei gleichem Energiegehalt «sperriger» als die energiereicheren terrestrischen Arten. Eine energetisch ausreichende Nahrungsmenge aus ausschließlich Wasserpflanzen würde die Pansenkapazität überschreiten, eine solche ausschließlich aus terrestrischen Pflanzen würde nicht genügend Natrium liefern. Die mittels linearer Programmierung modellierte Option für die Nahrungszusammensetzung liegt im schraffierten Bereich. Die tatsächlich durch den Elch im Mittel realisierte Nahrungswahl wird durch den * markiert und liefert unter den gegebenen Einschränkungen die höchstmögliche Energiemenge pro Tag (Abbildung neu gezeichnet nach Belovsky 1978).

Einschränkungen sind oft auch in den physiologischen oder morphologischen Adaptationen des nahrungssuchenden Tieres selbst begründet. Besonders den Herbivoren sind durch spezifische physiologische Rahmenbedingungen und Eigenheiten ihres Verdauungstrakts enge Grenzen gesetzt, wie am Beispiel von sehr unterschiedlichen Arten mittels linearer Programmierung gezeigt werden konnte. Elche (Alces alces) haben über die Nahrung nicht nur den Energiebedarf, sondern auch einen bestimmten Mindestbedarf an Natrium zu decken. Sie können wegen des beschränkten Aufnahmevermögens des Pansens aber nicht ad libitum Nahrung zu sich nehmen und müssen deshalb eine Balance zwischen natriumreichen Wasserpflanzen und energiereichen terrestrischen Pflanzen finden (Belovsky 1978; Abb. 3.6). Beim nordamerikanischen Columbia-Ziesel (Urocitellus columbianus) sind die Grenzen, welche die möglichen Anteile von Gras und anderen Pflanzen in der Nahrung bestimmen, ebenfalls durch die Verdauungskapazität und den minimalen Energiebedarf gegeben; als dritte Einschränkung wirkt die zur Verfügung stehende Zeit. Alle untersuchten Ziesel versuchten, die Energieaufnahme zu maximieren, doch wichen über ein Drittel der Individuen vom optimalen Modell ab, vermutlich mit negativen Konsequenzen für ihre Fitness (Ritchie 1988).

Das Beispiel des Elchs illustriert deutlich, dass Modelle, die allein auf die Aufnahme von Energie als currency abstellen, zu kurz greifen können. Gewisse Primatenarten optimieren ihre Nahrung dahin, dass eine konstante Proteinzufuhr gewährleistet ist, während die Energieaufnahme schwanken darf (Felton et al. 2009). Frugivore Vögel maximieren durch ihre Nahrungszusammensetzung zwar auch die Energiezufuhr, sind darüber hinaus aber imstande, feine Unterschiede in Zucker- und Fettkonzentrationen von 1–2 % wahrzunehmen. Sie selektieren bei isokalorischen Alternativen entsprechend ihren weiteren Bedürfnissen an Nährstoffen (Schaefer et al. 2003; auch Box 2.4).

3.4 Optimierte Nahrungssuche in patches

Nahrung ist meist nicht gleichmäßig im Raum verteilt, sondern in patches konzentriert; dazwischen finden sich Zonen mit geringem oder fehlendem Nahrungsangebot. Solche patches («Flecken»; ein in diesem Zusammenhang wirklich gebräuchlicher deutscher Begriff existiert nicht) können etwa ein Fisch- oder Insektenschwarm, ein fruchtender Baum, eine kleine Ruderalfläche mit reifen Samen, eine Gruppe nektarspendender Blumen oder eine Muschelbank sein. Beutet ein nahrungssuchendes Tier einen patch aus, so nimmt die Nahrungsdichte ab und die Aufnahmerate sinkt. Bei Prädatoren kann es auch sein, dass die verbleibende Beute scheuer wird, was die Aufnahmerate noch zusätzlich schmälert. Irgendwann ist diese so gering, dass sich eine weitere Bearbeitung dieses patches nicht mehr lohnt, obwohl noch ein Rest von Nahrung vorhanden ist. Das Tier sucht sich besser einen neuen patch, der eine höhere Aufnahmerate erlaubt, auch wenn der Ortswechsel Zeit und Energie kostet. Zu entscheiden, wann dieser Wechsel angezeigt ist, ist ein Optimierungsproblem und als solches eng verwandt mit der Optimierung der Nahrungswahl, die im vorangehenden Kapitel behandelt wurde.

Tatsächlich ist die «Optimal patch-use-Theorie» mit ihren Modellen zur selben Zeit und im gleichen Zug entwickelt worden. Zu den bahnbrechenden Arbeiten gehört jene von Charnov (1976b), der in Anlehnung an die ökonomische Theorie das marginal value theorem formulierte. Dieses bestimmt über ein einfaches grafisches Modell die optimale Zeitdauer in einem patch und macht, basierend auf einigen vereinfachenden Annahmen, folgende Voraussagen:

 

1. In Abhängigkeit der Nahrungsdichte des patches gibt es einen Grenzwert für den Energiegewinn, den marginal value. Wenn er erreicht ist, sollte der patch verlassen werden, auch wenn der mögliche maximale Gewinn aus dem patch noch nicht erreicht ist. Der Grenzwert entspricht dem Gewinn, der im gesamten Habitat im Durchschnitt erzielbar ist.

2. Die Zeit bis zum Erreichen des Grenzwerts, die giving-up time, ist in patches mit geringerer Nahrungsdichte kürzer als in besseren patches.

3. Die Distanz zum nächsten patch respektive die Zeitdauer, die für den Weg benötigt wird, beeinflusst die giving-up time. Je weiter der Weg, desto länger sollte das Tier in einem patch verweilen.

Anstelle der Verweildauer kann auch die übrig bleibende Nahrungsdichte gemessen werden, bei der das Tier den patch aufgibt (giving-up density). Für grafische Darstellungen und Erklärungen des Grenzwertmodells sei hier auf einige der neueren Literatur verwiesen, zum Beispiel Giraldeau (2008a), Ydenberg (2007, 2010), Hamilton (2010) oder Davies N. B. et al. (2012).

Das Modell ist wiederholt in Labor und Freiland getestet worden und hat sich, unter Beachtung einiger limitierender Faktoren, bewährt (Bedoya-Perez et al. 2013). In einem der ersten und bekanntesten Experimente dazu wurden wiederum Kohlmeisen (Abb. 3.3) benutzt, denen eine Anzahl künstlicher Bäume zur Verfügung standen. Jeder Baum trug als patches kleine offene Gefäße voll Sägemehl, in denen je dieselbe Anzahl Mehlwurmviertel versteckt war. Da die Distanzen zwischen den patches in der Volière nicht genügend stark variiert werden konnten, simulierte man die Kosten für den Weg zwischen den patches dadurch, dass Deckel über den patches angebracht wurden, die sich entweder ganz einfach oder nur mit zeitlichem Aufwand öffnen ließen. Die Ergebnisse zeigten, dass die Verweilzeiten auf den patches recht gut den Voraussagen aufgrund des Zeitaufwands für den Wechsel zwischen den patches entsprachen (Cowie 1977; Abb. 3.7). In einer Analyse von 26 Arbeiten zum Thema zeigte sich dasselbe Bild wie in der Untersuchung von Cowie: In qualitativer Hinsicht wurde das Modell unterstützt, das heißt, die Daten folgten der Kurve ähnlich wie in Abbildung 3.7. Quantitativ gesehen, «irrten» die nahrungssuchenden Tiere insofern, als sie zu lange auf den patches blieben (Nonacs 2001). Ähnlich wie in den Modellen zur Nahrungswahl ergab sich eine Verbesserung, wenn verschiedene Kosten oder constraints mitberücksichtigt wurden, vor allem die Kondition des Tieres und das damit verbundene Prädationsrisiko (Nonacs 2001). Wir haben im letzten Kapitel zwar auf das Verletzungsrisiko bei der Behandlung der Beute hingewiesen, aber das Risiko, bei der Nahrungssuche selbst einem Prädator zum Opfer zu fallen, kam noch nicht zur Sprache. Es bedingt Vorkehrungen beim Verhalten, die ebenfalls als Kosten bei der optimierten Nahrungssuche betrachtet werden müssen, und ist Thema des folgenden Kapitels.


Abb. 3.7 Ergebnisse des «Patch-use-Experiments» von Cowie (1977). Die Zeit, welche die Kohlmeisen auf den patches verbrachten (Mittel der sechs Individuen, mit Standardfehler), wuchs entsprechend der erwarteten Beziehung mit den Kosten für den «Patch-Wechsel». Wurde für die Erwartung das ursprüngliche Modell (gestrichelte Kurve) hinzugezogen, so hielten sich die Meisen zu lange auf dem patch auf. Wurde das Modell hingegen noch mit dem Energieaufwand für den Weg und das Suchen ergänzt (ausgezogene Kurve), so stimmten die Daten mit dem Modell überein (Abbildung neu gezeichnet nach Cowie 1977).

Das Grenzwertmodell ist für eine Reihe weiterer Situationen anwendbar, bei denen Tiere mit abnehmendem Gewinn pro Zeiteinheit konfrontiert sind. Sehr häufig etwa stellt sich das Problem, wie Nahrung energetisch optimal in ein Nest eingetragen wird. Eine solche Anordnung ist als central place foraging bekannt und verlangt vom Tier, Weg (Wie weit weg vom Nest suche ich?) und Ladung (Wie viel finde und transportiere ich pro Stecke?) zu optimieren. Bergpieper (Anthus spinoletta), die Nestlinge fütterten, brachten pro Weg mehr Nahrung und einen höheren Anteil an größerer Beute zum Nest, je weiter weg sie suchten, wobei die maximalen Distanzen von 300–400 m gut den Erwartungen für die maximale ökonomische Distanz entsprachen (Frey-Roos et al. 1995). Untersuchungen an weiteren Arten in vergleichbarer Situation kamen zu ähnlichen Befunden und zeigten, wie bereits die klassische Studie von Kacelnik (1984), dass fütternde Vögel kleinere Beute bis zu einer bestimmten Größe selbst fraßen, statt sie ins Nest einzutragen.

Zur Modifikation des optimalen Verhaltens auf patches kann auch die Erinnerung an frühere Schwankungen im Nahrungsangebot beitragen, indem sie die Reaktion auf die momentanen Gegebenheiten beeinflusst (successive contrast effects; McNamara J. et al. 2013). Unter experimentellen Bedingungen, bei denen die zunächst reichhaltige Nahrungsversorgung von Allenby-Rennmäusen (Gerbillus andersoni allenbyi) in patches unterschiedlich reduziert und dann wieder auf das alte Niveau aufgestockt wurde, fraßen Rennmäuse nach der mageren Periode von allen reichhaltigen patches mehr als erwartet, sodass die giving-up densities durchwegs niedriger waren als in der ersten reichhaltigen Periode (Berger-Tal et al. 2014). Die Bedeutung der Erinnerung an frühere Qualitätsunterschiede beim erneuten Besuch von patches ist noch wenig untersucht. Bei Bisons (Bison bison) spielt sie aber eine wichtige Rolle und bewirkte, dass die Tiere in einem Wald-Offenland-Mosaik nur einen Teil des zur Verfügung stehenden Habitats nutzten, indem sie gezielt nur die profitableren Wiesen besuchten (Merkle et al. 2014).

3.5 Prädation vermeiden bei der Nahrungssuche

Wir haben nun mehrfach festgestellt, dass die Diskrepanzen zwischen den Voraussagen eines Optimierungsmodells und dem tatsächlich beobachteten Verhalten auf Einschränkungen zurückzuführen waren, die mit mehr oder weniger versteckten Kosten zu tun hatten. Die oftmals wichtigsten Kosten blieben aber bisher unerwähnt. Es sind die Anpassungen im Verhalten, mit denen ein Tier vorsorgen muss, um während der Suche nach Nahrung nicht einem Prädator zum Opfer zu fallen (risk-sensitive foraging; Brown J. S. & Kotler 2004). Füttern wir zum Beispiel Vögel oder Hörnchen, so beobachten wir, dass die Tiere auch kleine Futterstückchen einzeln wegtragen, um sie erst in Deckung zu verzehren. Sie maximieren mit diesem Verhalten zwar nicht die Energieaufnahmerate, minimieren aber das Prä-dationsrisiko, denn schließlich ist kaum etwas der eigenen Fitness so abträglich wie der frühzeitige Tod. Viele Aktivitäten können in Deckung durchgeführt werden, die Nahrungssuche aber meistens nicht, und so versuchen die Vögel oder Hörnchen zumindest, die Bearbeitung der Nahrung an eine geschützte Stelle zu verlegen. Die resultierende Strategie ist ein Kompromiss (trade-off) zwischen maximierter Nahrungsaufnahme, gemessen in Energie oder einer anderen currency und minimiertem Prädationsrisiko. Unter Freilandbedingungen ist also für die meisten Arten ein solcher Kompromiss die wirklich optimierte Strategie.

Allerdings ist es oft nicht so einfach wie im geschilderten Beispiel, die verschiedenen Komponenten dieses Kompromisses zu erkennen und zu messen. Für viele Aspekte liegen aber mittlerweile Daten vor (Übersichten bei Lima M. & Dill 1990 und Lima S. L. 1998); Lima S. L. & Bednekoff (1999) sowie Brown J. S. & Kotler (2007) diskutierten sie im Licht der Theorie. Häufig haben nahrungssuchende Tiere die Wahl zwischen zwei Alternativen, der Suche an ergiebigen, aber gefährlichen Stellen und jener an weniger ergiebigen, aber auch weniger risikoreichen Stellen. Das Risiko ist auf profitablen Flächen oft deshalb größer, weil mit der höheren Dichte an Konsumenten auch Prädatoren angelockt werden. Ob nahrungssuchende Tiere nun das Risiko scheuen (risk-averse feeding) oder auf sich nehmen (risk-prone feeding), kann von verschiedenen fitnessrelevanten Faktoren abhängen; oft spielt der körperliche Zustand (Kondition) eine Rolle. Eher geschwächte oder hungrige Individuen sollten ein größeres Risiko auf sich nehmen als Individuen, die über genügend Vorräte an Fett oder Protein verfügen. Bei kleinen Tieren wie Kleinsäugern, Kolibris oder kleinen Singvögeln kann die Wahl der Strategie damit sogar im Tagesgang schwanken.

Anpassungen einer Suchstrategie an die Prädationsgefahr können auf verschiedene Weise erfolgen, zum Beispiel durch zeitliche Verschiebungen der Nahrungssuche, durch (oftmals subtile) Änderungen in der Habitatnutzung, mittels Reduktion der Fortbewegung oder einfach durch erhöhte Wachsamkeit (Bednekoff 2007; Ferrari et al. 2009). Pinguine etwa vermeiden es, bei geringem Licht Nahrung zu suchen, obwohl sie das könnten (Ainley & Ballard 2012). Kleinsäuger nutzen hingegen geringe Lichtstärken aus: Rennmäuse (Gerbillus sp.) passen ihre Aktivitätsphasen nicht nur den Habi-tatstrukturen und der Nahrungsdichte, sondern auch dem Mondlicht an. Sie sind bei Neumond aktiver, und die Intensität ihrer Wachsamkeit ändert im Verlauf einer Nacht in Abhängigkeit von Licht und der Aktivität der Prädatoren (Kotler et al. 2002; Berger-Tal et al. 2010; Embar et al. 2011). Eine Metaanalyse von Arbeiten, die mehrheitlich an kleinen Nagetieren durchgeführt worden waren, zeigte die generelle Bedeutung von Habitatstrukturen auf: Die giving-up densities waren höher auf patches mit schlechteren Deckungsmöglichkeiten (Verdolin 2006). Dieselbe Beziehung wurde auch bei Primaten gefunden (Abb. 3.8).

Unterschiedliche Prädationsgefahr in Abhängigkeit der Habitatstrukturen, und damit räumlich unterschiedliche Kosten bei der Nahrungssuche, kann die Raumnutzung von Tieren stark beeinflussen. So gesehen, bewegen sie sich in einer landscape of fear (Laundré et al. 2001), in der die «Täler» und «Berge» Flächen mit niedrigen und hohen prädationsbedingten Kosten repräsentieren (Abb. 3.9). Genauer betrachtet, sind diese Landschaften eher landscapes of risk (Norum et al. 2015). Die Verteilung von Flächen hohen Risikos und Refugien ist abhängig von der Heterogenität der Landschaft; in gleichförmig strukturierten Landschaften kann ein Mangel an Refugien dazu führen, dass die nahrungsreichsten Flächen trotz hoher Prädationsgefahr genutzt werden (Schmidt & Kuijper 2015). Die tatsächliche Nutzung der Landschaft durch Herbivoren braucht in artenreichen Prädatoren-Beute-Gemeinschaften die Prädationsgefahr nicht genau widerzuspiegeln (Thaker et al. 2011). Verhaltensänderungen (räumliche Verlagerungen, verkürzte Verweildauern auf patches, verstärktes Wachsamkeitsverhalten auf Kosten der Nahrungsaufnahme) der Beutearten differieren, je nachdem, ob mit Ansitzjägern oder Verfolgungsjägern zu rechnen ist (Preisser et al. 2007; Wikenros et al. 2015). Im Zuge der Wiedereinbürgerung von Wölfen in nordamerikanischen Nationalparks passten die Wapitis (Cervus canadensis) ihre Raumnutzung in beschränktem Maß an diesen Verfolgungsjäger an; sie nutzten die offenen, grasbestandenen Flusstäler weniger und hielten sich vermehrt in den weniger nahrungsreichen Waldbeständen auf (Creel et al. 2005; Fortin et al. 2005; Kauffman et al. 2010). Welches allerdings die Kosten von solchen non-consumptive effects sind, ist umstritten. Befunde, dass durch den Wolf ausgelöste Risikoeffekte bei Wapitis die Energieaufnahme der Hirsche und letztlich die Geburtenrate sinken ließen (Creel et al. 2007; Christianson & Creel 2010), konnten im Rahmen umfassenderer Studien nicht bestätigt werden. Absolut gesehen, war die Chance des Zusammentreffens von Wapitis und Wölfen selbst in relativ dicht von Wölfen besiedelten Gebieten gering, denn im Mittel kam ein Wapiti lediglich alle 9–50 Tage einem Wolf auf weniger als 1 km nahe (Middleton et al. 2013).


Abb. 3.8 Auch für Grünmeerkatzen (Chlorocebus aethiops) führt die Prädationsgefahr zu Kosten, welche die Maximierung der Energieaufnahme verhindern. Wild lebenden Meerkatzen wurden patches von Nahrung in Form von Futterkübeln mit Erdnüssen offeriert, die nur mit gewissem Aufwand herausgeklaubt werden konnten. Die Kübel waren auf Transekten angeordnet, die vom Baumwipfel hinunter zum Stammfuß und dann aus dem Wald hinaus in offenes Grasland führten. Prädationsgefahr ging in Wipfelnähe (patch 1) von Kronenadlern (Stephanoaetus coronatus) und am Boden (patches 4–7) von terrestrischen Prädatoren aus. Tatsächlich war die giving-up-density in mittlerer Baumhöhe (patch 2) am niedrigsten und nahm im Grasland mit zunehmender Entfernung vom Waldrand schnell zu, was bedeutet, dass die Kübel umso weniger geleert wurden, je größer die Gefahr durch Feinde war (Makin et al. 2012). Große Adler sind übrigens in allen tropischen Gebieten die Hauptprädatoren kleinerer und mittelgroßer Primaten (siehe auch Kap. 3.6) (Abbildung neu gezeichnet nach Makin et al. 2012).

 

«Risikolandschaften» existieren auch für Prädatoren, wenn sie selbst als Beute größerer Prädatoren infrage kommen (Kap. 9.11). Übrigens formt auch die Präsenz des Menschen bei vielen Tieren eine landscape of fear, besonders wo der Mensch über die Jagd ebenfalls als direkter Prädator auftritt. Die anthropogene Beeinflussung des raum-zeitlichen Verhaltens kann dabei jene der natürlichen Prädatoren deutlich übertreffen (Ciuti et al. 2012; Crosmary 2012) und auch bei großen Prädatoren die Raumnutzung entscheidend gestalten (Oriol-Cotterill et al. 2015).