Menschen mit Einschränkungen im Alltag durch moderne Technologie zu helfen, das war die Vorgabe des Instituts für „Signalverarbeitung und Prozessrechentechnik“. Jeder Master-Student der Informatik benötigt für seinen Abschluss das Zertifikat für eine „Fallstudie zur professionellen Produktentwicklung”. Es wird ein Thema vorgegeben, in unserem Fall „Supported Living“, und ab dann geht es darum von einer Idee über einen Business-Plan bis hin zu einem Prototypen zu kommen. Und das innerhalb eines Jahres.

Am Anfang steht natürlich die Frage: Was wollen wir eigentlich machen? Diese Frage verschlang schon viel Zeit und eine Menge Kreativität, das Ergebnis waren unter anderem viele Kuriositäten: Ein Exoskelett für ältere Menschen, das ihnen wieder mehr Mobilität verleihen soll. Ein Flugroboter-Geschwader, das Senioren auf Schritt und Tritt verfolgt und Alarm schlägt, wenn ihnen etwas zustößt oder sie Hilfe benötigen. Ein Quadrokopter, der autonom Gebäude umfliegt und von diesen mit Hilfe von Fotos ein 3D-Modell errechnet.

Geeinigt haben wir uns schließlich auf eine Sehhilfe, die wir uns idealerweise vorgestellt haben als eine Brille mit integrierter Kamera, die dem Nutzer Text im Bildbereich vorliest. Über ein paar Bedienelemente soll sich die Lautstärke regulieren, das Vorlesen pausieren lassen, et cetera. Der nächste Schritt war also einen Business-Plan aufzustellen. Wir haben untersucht, wie groß der Markt für ein solches Produkt ist, wieviel Zeit und Geld es kosten würde einen Prototypen zu entwickeln und inwiefern wir bereits existierende Software-Projekte nutzen können und rechtlich dürfen.

Die Zielgruppe der Sehbehinderten umfasst allein in Deutschland schätzungsweise 1,2 Millionen Menschen, weltweit sogar mehr als 160 Millionen. Nach “vorsichtigen” Rechnungen würden wir mit einem guten Produkt innerhalb von fünf Jahren einen Reingewinn von 20 Millionen Euro einfahren können – und das nach einem sehr guten Gehalt. Beim Verkaufspreis des Geräts gehen wir davon aus, dass es von den Krankenkassen Zuschüsse gibt.

Genügend Motivation sollte das sein. Doch wie genau soll das Ganze funktionieren? Es gibt bereits Software, die aus Bildern Text erkennen kann. Der ein oder andere kennt dies vielleicht als Stichwort OCR von Scanner-Software. Darüber hinaus gibt es Software, die Text vorlesen kann. Doch ganz so leicht wie diese hintereinander zu stecken ist es dann doch nicht. Denn vor allem OCR funktioniert scheinbar nur unter besten Bedingungen – und selbst dann, zum Beispiel beim Scannen eines Textes, geschehen erstaunlich viele merkwürdige Dinge. Um Abhilfe zu schaffen setzen wir auf zwei Strategien: Einerseits versuchen wir durch möglichst geschickte Bildvorverarbeitung die Bedingungen zum richtigen Erkennen der Worte zu verbessern, andererseits versuchen wir mit Hilfe eines Wörterbuches falsch erkannte Worte zu erkennen.

Die OCR-Software scheint alles als Text interpretieren zu wollen. Auf einem gescannten Brief mag dies Sinn machen. Für ein Foto, auf dem neben einem Schild mit etwas Text noch alles mögliche andere zu sehen ist, stellt dies ein großes Problem dar. Unsere Bildvorverarbeitung zielt darauf ab, Text von Nicht-Text zu trennen und den Text deutlich vom Hintergrund abzuheben. Perspektivische Verzerrungen, wie sie bei Scans nicht auftreten, wohl aber bei Fotos, sind ein weiteres Problem.

Bei der Hardware gab es auch ein paar Fragen zu klären. Für die Berechnungen fiel die Wahl schließlich auf ein Netbook, also einen kleinen Mini-Laptop. Die Bedienung läuft über eine umprogrammierte Wii-Mote. Die Kamera wird nun wohl doch eher handgehalten werden als brillenmontiert.

Es ist also insgesamt noch ein weiter Weg. Von dieser Idee fehlen zu einer fertigen Technologie noch einige Details für die Umsetzung. Die technischen Möglichkeiten dazu existieren allerdings und eine Vorlesebrille könnte es in nicht allzu ferner Zukunft geben. Vielleicht gehören zu den Lesern des Studentenpacks ja schon bald Sehbehinderte.

Noch keine Kommentare, sei der Erste!