AI-United » Allgemein » Verfahren zur Erkennung von Tieren und ihrem Verhalten in der Wildnis

Verfahren zur Erkennung von Tieren und ihrem Verhalten in der Wildnis

Verfahren zur Erkennung von Tieren und ihrem Verhalten in der Wildnis

Ökologen, Biologen und Zoologen geben sich Mühe, die wilde Natur zu retten. Sie wollen das Bewusstsein für die Lage und das Verhalten von Tieren in der freien Wildnis steigern. Dazu benötigen sie sehr präzise und aktuelle Information über das Verhalten und die Anzahl von Tieren in der freien Natur.

Das Projekt der Camera Traps gehört zu den Methoden, die von Ökologen und Biologen zur Informationserstellung über die freie Natur angewendet werden. Die Einordnung der großen Anzahl von Fotokameras in  abstandsgleichen Orten ermöglicht es, den Umfang und die Aufteilung von Tierpopulationen zu untersuchen. Forscher entnahmen nur einen kleinen Teil der Information aus der riesigen Menge von Fotografien, weil Menschen die Bilder analysieren sollten. Die Teamarbeit der Forscher aus der University of Wyoming, Auburn University, Harvard University, University of Oxford, University of Minnesota und Uber AI führte zur Entwicklung des präzisen Verfahrens für die automatische Identifizierung von Tieren nach den Fotografien aus Camera Traps.

Die Forscher verwenden Deep Learning und große markierte Datensätze zur Erkennung, Berechnung und Beschreibung des tierischen Verhaltens. Dies ist ein Multitask-Problem des Lernens mit der Verwendung von Bildern aus den Camera Traps.

Der Datensatz

Die Forscher verwenden den markierten Datensatz aus dem Snapshot Serengeti Project. Es handelt sich hier um das weltweit größte Projekt mit Camera Traps. An diesem Projekt im Nationalpark Serengeti, Tansania nehmen 225 Camera Traps teil. Der Datensatz enthält 3,2 Millionen Bilder, die 1,2 Millionen Ereignisse des Greifens entsprechen (das Moment, wenn die Fotokamera die Bewegung erkennt und einige Fotos macht). In diesem Projekt fokussieren sich die Forscher auf d Ereignisse des Greifens, die nur eine Art darstellen.

Nach der menschlichen Markierung stellte sich heraus, dass auf 75% Fotografien des Datensatzes keine Tiere gibt. Die Freiwilligen markierten alle Ereignisse auf jedem Bild.

Doch für den Lernprozess kann diese Methode gefährlich sein. Die Marker von Ereignissen zu einzelnen Bildern können einander nicht entsprechen. Die Hinzufügung dieses “Geräusches” kann vom Neuronennetz bewältigt werden.

Die Testmischung

Zur Einschätzung des Modells schaffen die Autoren zwei Testsätze: der Testsatz mit dem Merkzeichen des Fachmanns, die aus 3.800 Ereignissen des Greifens besteht, und der Testsatz mit dem Merkzeichen des Freiwilligen, die aus 17.400 Ereignissen des Greifens besteht.

Die Methode

Die Forscher berücksichtigen das bei der Problemlösung unter Benutzung des zweiphasigen Ansatzes:

  • (I) das Erkennen der Anwesenheit des Tieres (die Aufgabenlösung — leer vs Tier),
  • (II) die Feststellung der anwesenden Arten,
  • (III) die Auszählung der Anzahl von Tieren,
  • (IV) es wird beschrieben, was das Tier auf dem Bild macht (das Verhalten und die Anwesenheit von Jungtieren).

Die Wissenschaftler haben verschiedene Architekturen von tiefen Neuronennetzen untersucht, um die am besten geeignete für die automatisierte Zuordnung von Tieren zu finden.

Die schrittweise Umwandlung der unbearbeiteten Daten in abstrakte Begriffe
Die Beschreibung der populärsten Architekturen von tiefen Neuronennetzen, die in diesem Projekt benutzt werden

Die Aufgabe I: Das Erkennen von Bildern, auf denen es Tiere gibt

Die erste Aufgabe ist am einfachsten, die binäre Klassifizierung. Die merkliche Dysbalance von Klassen ist dabei das einzige Problem. Um dieses Problem zu lösen, haben die Forscher 25% nichtleere Bilder genommen und denselben Datenumfang aus 75% leeren Bildern nach dem Zufallsprinzip ausgewählt. Sie erhielten 1,5 Millionen Bilder, 1,4 Millionen von ihnen waren zum Lernen und 100.000 zum Testen. In dieser Aufgabe erreichen alle Bestimmungszeichen die Präzision von 95.8%, VGG ist mit der Präzision von 96.8% am exaktesten.

Die Aufgabe II: die Feststellung der anwesenden Arten

Zur Erfüllung dieser Aufgabe verwendeten die Autoren die Methoden “Top-1” und “Top-5”. Dabei handelt es sich um eine mehrkomponentige Klassifizierung mit 48 Klassen, die 48 Arten entsprechen, die im Lern-Datensatz vorhanden waren. Das endgültige Modell erreicht 99,1% mit der Methode “Top-5”. Die Methode, die man zur Feststellung der Arten benutzt, ist das gesamte Lernen, wo man die Vorhersage durch die Vergleichmäßigung von allen Vorhersagen aus einigen Modellen erreicht. Die Präzision mit der Methode “Top-1” beträgt 94.9% und mit der Methode “Top-5” – 99,1% (das beste Modell — ResNet-152 erreicht 93.8% mit “Top-1” und 98,8% mit “Top-5”).

Die Aufgabe III: die Auszählung der Anzahl von Tieren

Zur Lösung dieser Aufgabe haben die Forscher den Raum der möglichen Antworten auf 12 Clustern geteilt, die 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11–50 und 51+ Tiere auf einem Bild entsprechen. Die Präzision dieser Methode beträgt 63,1% mit “Top-1”, wobei 84,7% der Vorhersagen innerhalb +/-1 Cluster liegen.

Die Aufgabe IV: das tierische Verhalten und Zusatzoptionen

Der Datensatz von Serengeti enthält 6 nicht inkompatible Merkzeichen, die das tierische Verhalten auf dem Bild bestimmen: steht, erholt sich, bewegt sich, frisst, die Anwesenheit von Jungtieren.

Die binäre Klassifizierung berücksichtigt die Möglichkeit, einige Merkzeichen zu haben. Die vereinigte Sammlung von Modellen erreicht eine Präzision von 76,2%.

Diese Untersuchung hat gezeigt, dass Deep Learning für solche Experten wie Biologen und Ökologen nützlich sein kann, damit sie die wilde Natur untersuchen und schützen können. 

Fall Sie Fragen haben, dürfen Sie uns gerne kontaktieren.

Quelle

AI-United-Redaktion

Kommentar hinzufügen

Your email address will not be published. Required fields are marked *

300-101   400-101   300-320   300-070   300-206   200-310   300-135   300-208   810-403   400-050   640-916   642-997   300-209   400-201   200-355   352-001   642-999   350-080   MB2-712   400-051   C2150-606   1Z0-434   1Z0-146   C2090-919   C9560-655   642-64   100-101   CQE   CSSLP   200-125   210-060   210-065   210-260   220-801   220-802   220-901   220-902   2V0-620   2V0-621   2V0-621D   300-075   300-115   AWS-SYSOPS   640-692   640-911   1Z0-144   1z0-434   1Z0-803   1Z0-804   000-089   000-105   70-246   70-270   70-346   70-347   70-410