Wäre es nicht genial, wenn man im Laden seine Smartphone-Kamera auf Lebensmittel richten könnte und bekommt die Inhaltsstoffe angezeigt. Man kann beispielsweise einen Apfel auf seine Pestizid-Rückstände untersuchen und erkennt sofort, ob das Bio-Obst auch Bio ist. Eine App soll es demnächst möglich machen.
Anzeige
Die Veröffentlichung des Fraunhofer Instituts ist zwar bereits ein paar Tage alt, aber das Thema ist weiterhin von Interesse. Mit einer neuen App von Fraunhofer-Forschern soll man direkt in Objekte hineinschauen und sich spezielle Inhaltstoffe anzeigen lassen können. Anwendungsmöglichkeiten gibt es zahlreiche: So kann man beispielsweise einen Apfel auf seine Pestizid-Rückstände untersuchen. Entsprechend dem Wikipedia-Prinzip sollen die Anwendungen sukzessive erweitert werden, schreiben die Forscher.
Altes Problem: Was ist drin?
Eigentlich kennt das jeder Käufer: Die Frage, welche Rückstände von Pestiziden bei Obst und Gemüse zu finden sind. Sind die Bio-Äpfel wirklich ungespritzt? Oder ist das Auto wirklich unfallfrei, wie der Verkäufer behauptet? Mit der App »HawkSpex® mobile« des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung IFF in Magdeburg sollen Verbraucher künftig die Möglichkeit bekommen, solche Angaben zu überprüfen.
(Quelle: Fraunhofer IFF)
Der Ansatz: Es reicht, ein Smartphone auf das zu prüfende Objekt – etwa einen Apfel – zu richten. Ruft man die App auf, zeigt diese die gewünschte Information wie beispielsweise Rückstände von Pestiziden an. Solche Systeme gibt es zwar, diese erfordern aber spezielle Teile. Die Fraunhofer-App kommt mit einem handelsüblichen Smartphone und dessen Kamera aus.
Keine Hyperspektralkamera notwendig
Wie haben die Forscher um Projektleiter Dr. Andreas Herzog es geschafft, ohne ein Prisma auszukommen? Üblicherweise braucht man für solche Messungen eine spezielle Hyperspektralkamera: Sie justiert jeweils auf verschiedenfarbiges Licht und ermittelt, wie viel Licht dieser Farbe das Objekt zurückwirft. So erstellt sie einen gesamten spektralen Fingerabdruck des Gegenstands. Aus diesem können die Forscher über ein mathematisches Modell beinahe beliebige Informationen über das Objekt extrahieren, etwa die Inhaltstoffe.
»Da im Smartphone keine Hyperspektralkamera integriert ist, haben wir dieses Prinzip einfach umgedreht«, erläutert Prof. Dr.-Ing. Udo Seiffert. »Wir haben mit der Kamera einen breitbandigen dreikanaligen Sensor – also einen, der alle Wellenlängen misst – und beleuchten den Gegenstand mit Licht unterschiedlicher Farbe.« Das heißt: Nicht die Kamera misst die Lichtintensität in den verschiedenen Farben, sondern das Display beleuchtet das Objekt nacheinander in Sekundenbruchteilen in einer Reihe von unterschiedlichen Farben.
Wirft das Display also nur rotes Licht auf das Objekt, kann das Objekt auch nur rotes Licht reflektieren – und die Kamera nur rotes Licht messen. Intelligente Auswertealgorithmen sorgen dafür, dass die App mit der begrenzten Rechenleistung eines Smartphones auskommt und die eingeschränkten Leistungen von Kamera und Display kompensiert.
Ende 2017 könnte die App kommen
Anzeige
Die erste Laborversion der auch zum Patent angemeldeten App ist fertig. Bevor sie jedoch für den privaten Nutzer veröffentlicht werden kann, entwickeln die Forscher verschiedene erste Anwendungen. Denn um analysieren zu können, ob sich Pestizide im Apfel befinden, muss das System zunächst über Vergleichsmessungen angelernt werden. Etwa Ende 2017, hofft Seiffert, könnte die App »HawkSpex® mobile« auf den Markt kommen.
Vergleichsmessungen sind allerdings nicht immer nötig. Denn bei einigen Fragen geht es nicht um die Angabe einzelner Inhaltstoffe, sondern nur um die Messung unterschiedlicher Verteilungen von Stoffen oder Materialien. Etwa beim Autokauf: Hier vergleicht die App, ob der Lack an allen Stellen exakt die gleiche Farbe hat – oder ob nachlackiert wurde.
Nutzer erweitern das Anwendungsspektrum
»Es sind so zahlreiche Einsatzbereiche denkbar, dass der Markt uns sicherlich überrennen wird«, ist sich Seiffert sicher. Daher setzen die Forscher auf einen Ansatz, der dem Online-Lexikon Wikipedia nachempfunden ist. »Wenn die App Ende 2017 auf den Markt kommt, können engagierte Nutzer zum großen Ganzen beitragen und neue Anwendungen, zum Beispiel die Beurteilung der Belastung von Salatköpfen mit Pflanzenschutzmitteln, kreieren, indem sie das System für eine solche Fragestellung anlernen«, sagt Seiffert. Das heißt: Sie vermessen etwa behandelte und unbehandelte Salatköpfe verschiedener Sorten mit der App und schicken die Daten zum Fraunhofer IFF. Forscher prüfen die Messungen und schalten die Anwendung für alle Nutzer frei.
Auch im kommerziellen Bereich ist die App von großem Interesse. So lassen sich mit ihr Bereiche erschließen, bei denen sich ein Präzisionsmessgerät nicht lohnen würde. Beispiele sind die Qualitätskontrolle von Lebensmitteln, die Wirksamkeit von Kosmetikprodukten oder auch die Landwirtschaft: Der Landwirt kann so beispielsweise auf einfachem Weg Aussagen dazu erhalten, ob seine Pflanzen ausreichend mit Nährstoffen versorgt sind oder ob er zum Dünger greifen sollte. Klingt doch cool, oder?
Anzeige
Eine gute Sache