Apple will mit weniger Sensoren besser sehen können
Dass sich Apple so wie viele andere Konzerne zu aktuellen Forschungs-Projekten nicht äußert, ist man schon gewohnt - gerade wenn es um Projekte geht, bei denen Grundlagenforschung für die Produkte der eher fernen Zukunft betrieben wird. Genau in dieser Hinsicht haben sich jetzt zwei Forschungs-Mitarbeiter des Konzerns erstaunlich mitteilsam gezeigt und Details zu einer Studie veröffentlicht, die im Bezug auf die Möglichkeiten rund um das autonome Fahren angestellt wurden - also einem Bereich, in dem Apple in den letzten Jahren auch ohne offizielle Bekenntnisse große Ambitionen gezeigt hatte.Beim Bordsystem...
...ist Apple schon vertreten
In dem Forschungsbericht, der am 17. November über das Online-Journal arXiv (via Reuters) veröffentlicht wurde, beschreiben die beiden Autoren Yin Zhou und Oncel Tuzel unter anderem ein neues Software-Tool mit dem Namen "VoxelNet", das Computern bei der schwierigen Aufgabe der Objekterkennung unter die Arme greifen soll. Apple will hier eine Methode entwickelt haben, die eine deutlich bessere Erkennung von Fußgängern und anderen Objekten ermöglicht, wenn nur wenige Sensordaten zur Verfügung stehen.
Die Möglichkeit autonomer Fahrzeuge, kleine und weit entfernte Objekte zuverlässig wahrzunehmen, wird nach Meinung der Forscher aktuell von der schlechten Auflösung der LiDAR-Sensoren beeinträchtigt - diese Sensoren nutzen Laser zur optischen Abstands- und Geschwindigkeitsmessung. Wie das jetzt veröffentlichte Forschungspapier zeigt, soll die Zuverlässigkeit dieses Systems deutlich gesteigert werden können, wenn die Daten des LiDAR mit Bildern einer normalen Kamera kombiniert werden.