Research & Innovation

IBMs im Realitätscheck

Der Computer wird innerhalb der nächsten fünf Jahre dem Menschen helfen, bis heute noch Unsichtbares erkennen zu können. Dazu wagt IBM Research fünf Prognosen.

02.02.2017 Mark Schröder

IBM Research auf der Zeitreise

IBM Research Prognosen
Die technologische Entwicklung schreitet rasch voran. IBM Research wagt Prognosen für die Zukunft. (Foto: Vintage Tone / Shutterstock.com)

Der Computer versteht die "Babysprache". Er hilft dem Arzt bei der Diagnose eines Röntgenbildes. Der Rechner hört besser als der Mensch und kann ihn vor Gefahren warnen. Auch kann ein Touchscreen den haptischen Eindruck eines Kleidungsstückes vermitteln. Und Software ist fähig, Geschmäcker zu erkennen sowie selbständig neue Kreationen zu schaffen. Diese fünf Sinneserweiterungen sollten heute Realität sein, versprachen die Wissenschaftler von IBM Research vor fünf Jahren.

Ein Blick auf die heutige Technologie zeigt: An der Spracherkennung hapert es noch, die Arztdiagnose ist Realität, eine App mit Supergehör gibt es noch nicht und den fühlbaren virtuellen Stoff ebenfalls nicht. Einen neuartigen Cocktail sowie ein Menü hat aber "Chef Watson" bereits kreiert. Allein: Die computergenerierten Speisen stehen noch nicht im Handel. Damit waren die Prognosen der IBM-Wissenschaftler mehrheitlich der Zeit voraus.

Nun wagen die Experten neue Prognosen: die "5 in 5". Fünf Innovationen, die das Leben in den nächsten fünf Jahren nachhaltig verändern könnten. Mit den Vorhersagen von vor fünf Jahren haben die neuen Prognosen gemeinsam, dass die menschlichen Sinne durch den Computer erweitert werden. "Auf Basis der Fortschritte im Bereich Künstliche Intelligenz und Nanotechnologie wollen wir neue Instrumente entwickeln, die uns helfen, die unsichtbaren Zusammenhänge in der heutigen Welt besser zu verstehen", sagt Dario Gil, Vice President of Science & Solutions bei IBM Research.

Hören für die Gesundheit

Die Sprache ist nach Auffassung von IBM Research ein Schlüssel für ein besseres Verständnis der komplexen Abläufe im Gehirn. In den nächsten fünf Jahren werden kognitive Systeme in der Lage sein, aus der Art und Weise, wie Menschen formulieren und sprechen, Rückschlüsse auf die psychische Verfassung zu ziehen. Dafür kombinieren IBM-Experten in einem Projekts Abschriften und Tonaufnahmen aus Patientengesprächen mit maschinellem Lernen, um so Sprachmuster aufzudecken, die zukünftig dabei helfen sollen, Depression, manisches Verhalten oder Schizophrenie vorherzusagen. Momentan benötigt der Computer nur 300 Wörter, um erste Vorhersagen zu treffen.

In Zukunft hoffen die Forscher, dass ähnliche Techniken auch für Krankheitsbilder wie Aufmerksamkeitsdefizitstörungen, Autismus oder posttraumatische Belastungsstörungen angewendet werden können. Dafür analysieren die kognitiven Systeme heute die Aussagen, Intonation, Sprache und Syntax der Betroffenen. Kombiniert mit bildgebenden Verfahren wie der Elektroenzephalografie (EEG) entsteht ein umfassendes Bild der Person. Es soll Mediziner und Psychologen bei der Diagnose und der Behandlungen unterstützen. Wenn zusätzlich mobile Geräte eingesetzt werden, können Patienten bereits Untersuchungen selbst zu Hause machen und so die Arzttermine vorbereiten.

Sehhilfen bringen Sicherheit

Das menschliche Auge kann weniger als 0,1 Prozent des elektromagnetischen Spektrums sehen, weiß IBM Research. Apparaturen mit Radar- oder Röntgen-Strahlen erweitern das Spektrum. Allerdings sind die Geräte meist nur von Spezialisten zu bedienen und teuer in Anschaffung sowie Unterhalt. Die Forscher erwarten nun, dass in fünf Jahren Sehhilfen in Kombination mit künstlicher Intelligenz erlauben, größere Bandbreiten des elektromagnetischen Spektrums zu sehen. Diese Geräte werden bezahlbar, tragbar und überall verfügbar sein.

Ein Anwendungsszenario ist laut IBM Research das selbstfahrende Auto: Computer können plötzlich auftretende Hindernisse oder sich verschlechternde Wetterbedingungen besser und schneller als heute analysieren, um das Fahrzeug sicher ans Ziel zu navigieren. Eine andere Anwendung sind Lebensmittelscanner für das Handy: Die Sensoren könnten die Haltbarkeit oder den Nährstoffgehalt von Waren per Knopfdruck anzeigen.

Globale Zusammenhänge verstehen

Die Zusammenhänge in der unmittelbaren Umgebung bleiben den Menschen oftmals verborgen. Das wird sich mit dem Internet of Things nachhaltig ändern, glaubt IBM Research: Bisher liefern Drohnen, Glühbirnen, Kameras, Kühlschränke, Satelliten, Teleskope und Wetterstationen monatlich Exabytes bisher nur wenig genutzter Daten. In den nächsten fünf Jahren werden Machine-Learning-Algorithmen und Software helfen, die Informationen aus der physischen Welt zu organisieren und zu verstehen.

Ein Beispiel ist die Landwirtschaft: Durch das Sammeln, Organisieren und Analysieren von Daten zu Anbaumethoden, Bodenbeschaffenheit, Grundwasserspiegel und Klima können zukünftig Bauern ihr Saatgut auswählen, den richtigen Standort für Felder bestimmen und den Ertrag optimieren – ohne dabei zum Beispiel Grundwasserreserven zu verschwenden.

Medizin-Labor im Chipformat

Bei vielen Krankheiten ist die Früherkennung entscheidend für den Behandlungserfolg. Die IBM-Forscher wissen, dass Krankheiten wie Krebs oder das Parkinson-Syndrom nur schwer frühzeitig zu diagnostizieren sind. Eine Möglichkeit der Früherkennung soll die Analyse von Biopartikeln in Körperflüssigkeiten sein. Diese Partikel sind aber oft 1000-mal kleiner sind als der Durchmesser eines menschlichen Haars. Damit sind sie sehr schwer nachzuweisen.

In den nächsten fünf Jahren will IBM Research ganze medizinische Labore auf einem Chip unterbringen. Heute sind Prototypen bereits fertig, die Biopartikel mit einem Durchmesser von nur 20 Nanometern von Viren trennen und isolieren können. Das Chip-Labor soll es in Zukunft den Verbrauchern erlauben, selbständig Biomarker auszulesen und die Daten in einem virtuellen Gesundheitsdossier mit Informationen von zum Beispiel Smart Watches zu verknüpfen. Die Kombination verschiedener Datensätzen könnte einen Einblick in den Gesundheitszustand geben und allenfalls problematische Indikatoren frühzeitig identifizieren.

Umweltverschmutzung entdecken

Die meisten Schadstoffe sind für das menschliche Auge nicht sichtbar. Wie IBM Research erklärt, ist ein Beispiel das Methan. Wenn Methan in die Luft gelangt, bevor es verbrannt wird, trägt es entscheidend zur Erderwärmung bei. Die US-amerikanische Umweltbehörde EPA schätzt, dass 2014 allein aus natürlichen Quellen mehr als neun Millionen Tonnen Methan ausgetreten sind. Das entspricht der Menge von Treibhausgasen, die in den vergangenen 100 Jahren von der amerikanischen Aluminium-, Eisen- und Stahl- sowie Zementindustrie zusammen produziert wurden.

Die Wissenschaftler von IBM prognostizieren nun, dass in fünf Jahren preiswerte Sensoren verfügbar sein werden, die den Austritt von Methan registrieren können. Wenn die weit verstreuten Methan-Quellen und die Förderinfrastruktur überwacht werden, lässt sich innerhalb von Minuten – statt wie bisher nach Wochen – ein Leck entdecken. Die Technologie würde helfen, Umweltschäden und die Wahrscheinlichkeit von Katastrophen zu reduzieren.

Research & Innovation Artificial Intelligence RSS Feed abonnieren