06. Februar 2018
Posted by aisolab
01

Letzte Woche hatten wir einen sehr erfolgreichen Tag auf dem Digital Demo Day in Düsseldorf.
Vor und vor allem nach unserer Präsentation hatten wir eine Menge interessanter Gespräche auf unserem Stand, auf dem wir Beispiele zum Thema Visual Computing mit AI und unsere AI-Cam gezeigt haben.
Wir haben uns sehr über viele neue Kontakte und das Treffen mit einigen Freunden aus unserem Netzwerk gefreut.

Unser großer Dank gilt Klemens Gaida und seinem Team, für die Organisation eines großartigen Events.

02. Februar 2018
Posted by aisolab
02

Die rasante Entwicklung der künstlichen Intelligenz hat in den letzten Jahren immer neue Ebenen erreicht, die wenig früher noch als reine Science-Fiction galten. Mit besonderer Aufmerksamkeit – und von verschiedenen Seiten auch mit besonders großen Befürchtungen – werden stets vor allem Neuigkeiten betrachtet, die in Richtung eines maschinellen Bewusstseins deuten. Derzeit verblüffen vor allem in dem Bereich Wahrnehmung und ihre Manipulation die von Maschinen erbrachten Leistungen Laien und sogar Fachleute in zunehmendem Maße.

Ein gutes Beispiel ist die Arbeit einer KI-Forschungsgruppe in der Entwicklungsabteilung des vor allem als Grafikkarten-Hersteller bekannten Unternehmens Nvidia. Den Forschern gelang es, einem künstlichen neuronalen Netz beizubringen, ausgehend von Bild- und Filmquellen diese Medien hinsichtlich bestimmter Charakteristika auf glaubwürdige Weise zu verändern. So ist es mit dieser Technologie möglich, das Wetter in einem Video zu ändern oder die Rasse eines Hundes auf einem Bild. Der entscheidende Punkt hierbei ist, dass Darstellungen in Bild- oder Videoform fast beliebig manipulierbar werden, ohne dass ein menschlicher Editor eingreifen muss. Die Ergebnisse sind bislang noch nicht perfekt, dürften aber in Zukunft noch wesentlich überzeugender werden.

Noch einen Schritt weiter gingen nun Wissenschaftler der Universität Kyoto: Sie wandten ein ähnliches Verfahren an, um eine künstliche Intelligenz die inneren Wahrnehmungsbilder im menschlichen Gehirn erkennen zu lassen.Die KI liest also gewissermaßen die Gedanken einer Person. Im Einzelnen passiert dabei dies: Ein neuronales Netz wird darauf trainiert, Bilder, die eine menschliche Versuchsperson ansieht, abzugleichen mit durch fMRT (funktionelle Magnetresonanztomographie) gewonnenen Daten der korrespondierenden Gehirnaktivität der Person. Auf diese Weise lernt die KI, externe Stimuli (die Bilder) mit den internen Zuständen im Gehirn (den MRT-Mustern) zu assoziieren. Erhält sie nach dieser Lernphase als Input nur noch MRT-Daten, ist sie in der Lage, das vom Menschen Wahrgenommene daraus zu rekonstruieren, ohne zuvor selbst Kenntnis von diesen Bildern genommen zu haben. Die dabei von der KI produzierten Abbilder dieser geistigen Vorgänge sind bislang alles andere als fotorealistisch, lassen aber das Ursprungsbild eindeutig wiedererkennen.

Eine auf den ersten Blick so bedrohlich wirkende Schlagzeile wie KI liest Ihre Gedanken sollte bei genauerem Hinsehen also nicht mehr soviel Unbehagen erzeugen. Das eigentliche „Gedankenlesen“, den Blick ins Gehirn, übernimmt weiterhin das MRT, und dafür ist es ja auch gedacht. Die künstliche Intelligenz dagegen beschränkt sich auf Mustererkennung durch ein neuronales Netz und die Anwendung des Gelernten auf neue Daten. Dabei liegt die Stärke neuronaler Netze in der Arbeitsgeschwindigkeit: Während Menschen Stunden benötigen, um neue Lektionen zu lernen, kann ein solches System Millionen von Lernvorgängen in der gleichen Zeit absolvieren. Die große Zahl an Durchgängen erzeugt im Netz ein sehr differenziertes System von Gewichtungen und Zuständen zwischen den Neuronen, sodass das Resultat mit andauerndem Training dem Vorbild immer ähnlicher wird. Die denkbaren Anwendungen sind vielfältig, aber vor allem in einer Hinsicht bietet diese Technologie faszinierende Verheißungen für die Zukunft: So könnte es Menschen, die nicht sprachlich oder schriftlich kommunizieren können, ermöglicht werden, ihre Gedanken und inneren Bilder mitzuteilen. Auch noch weiterreichende Anwendungen sind denkbar, etwa das direkte „Hochladen“ von geistigen Inhalten in Computernetzwerke.

29. Januar 2018
Posted by aisolab
03

 

Der Digital Demo Day steht vor der Tür, und wir freuen uns, daran teilzuhaben! Am 1. Februar präsentieren wir Ihnen unsere digitalen Lösungen und unsere innovativen AI-Technologien im Digital Hub in Düsseldorf.

Besuchen Sie uns auf dem Digital Demo Day, um die neuesten digitalen Trends kennenzulernen, über Anwendungsmöglichkeiten zu sprechen und tiefgehende Einblicke zu erhalten.

Tickets erhalten Sie hier

Wir sehen uns dort!

19. Januar 2018
Posted by aisolab
04

Kameras an Straßenkreuzungen und anderen vielbefahrenen Straßen sind keine Neuerung. Sie ermöglichen die Überwachung des Verkehrsgeschehens und liefern Bilder im Falle von Unfällen. In Zukunft könnten die Aufnahmen der Kameras noch wertvollere Dienste leisten – mithilfe der Künstlichen Intelligenz. Die Auswertung von Verkehrsdaten durch Supercomputers könnte bald dafür sorgen, dass die Straßen sicherer werden. Indem sie in kurzer Zeit Daten auswerten und den Verkehr analysieren. Wissenschaftler vom Texas Advanced Computing Center (TACC), dem Center for Transportation Research der Universität von Texas und die texanische Stadt Austin arbeiten an Programmen, die mittels Deep Learning und Data Mining die Straßen sicherer machen und Verkehrsprobleme beseitigen.


Die Wissenschaftler entwickeln eine Künstliche Intelligenz, die durch Deep Learning die Videoaufnahmen von Verkehrspunkten auswertet. Diese Software soll in der Lage sein, Objekte zu erkennen und richtig einzuordnen. Bei den Objekten handelt es sich um Autos, Busse, Lastwagen, Motorräder und um Ampeln und Menschen. Die Software ermittelt, wie sich diese Objekte bewegen und verhalten. Dadurch lassen sich Informationen gewinnen, die wiederum genauer analysiert werden können, um Verkehrsproblemen vorzubeugen. Das Ziel ist es, eine Software zu entwickeln, welche Verkehrsforscher bei der Auswertung von Daten zu helfen. Die Künstliche Intelligenz soll dabei flexibel einsetzbar sein und auch in Zukunft Verkehrsprobleme aller Art erkennen können, ohne dass sie jemand speziell dafür programmieren muss.

Dank des Deep Learnings ordnen die Supercomputers die Objekte richtig zu und schätzen zwischen den ermittelten Objekten die Verhältnisse im Straßenverkehr ein, indem sie den Bewegungen der Autos, Menschen etc. folgt. Nachdem diese Arbeit getan war, gaben die Wissenschaftler der Software zwei Aufgaben: Die Anzahl der Fahrzeuge zu zählen, welche eine Straße entlang fuhren. Und schwieriger: Beinahezusammenstöße zwischen Fahrzeugen und Fußgänger festhalten. Die Künstliche Intelligenz wertete Videomaterial von 10 Minuten aus und zählte mit zu 95%iger Sicherheit alle Fahrzeuge. Das Verkehrsaufkommen genau bestimmen zu können ist eine wertvolle Fähigkeit des Supercomputers. Zurzeit sind noch zahlreiche teure Sensoren nötig, um solche Daten zu gewinnen oder Studien müssen durchgeführt werden, die jeweils nur spezifische Daten erbringen würden. Die Software hingegen kann das Verkehrsvolumen über einen weiten Zeitraum beobachten und so Zahlen über das Verkehrsaufkommen liefern, die weitaus genauer sind. Dadurch lassen sich bessere Entscheidungen über die Gestaltung des Straßenverkehrs treffen. Im Falle der Beinahezusammenstöße konnten die Wissenschaftler dank der Künstlichen Intelligenz automatisch Situationen erkennen, in denen Fußgänger und Fahrzeuge sich bedrohlich nahe kamen. Dadurch können Verkehrspunkte, die besonders gefährlich sind, schon identifiziert werden, bevor Unfälle erst geschehen. Die analysierten Daten könnten sich als sehr aufschlussreich erweisen, wenn es darum geht, zukünftige Verkehrsprobleme aus dem Weg zu räumen.

 Das nächste Projekt: Die Software soll lernen, an welchen Stellen Fußgänger die Straße überqueren, wie die Fahrer auf Schilder reagieren, die sie auf die Straße überquerende Fußgänger hinweisen und sie soll herausfinden, wie weit die Fußgänger bereit sind zu laufen, um den Fußgängerweg zu erreichen. Das Projekt der Texas Advanced Computing Center und der Universität von Texas verdeutlicht, wie Deep Learning dabei helfen kann, den Aufwand der Analyse von Videomaterial zu reduzieren.

 

18. Januar 2018
Posted by aisolab
05

Am 15 und 16. März wird in München die erste und bereits anerkannte Handelsblatt Konferenz zur künstlichen Intelligenz stattfinden.

Wir haben intensiv bei der Organisation mitgeholfen und sind stolz darauf, dass wir ein tolles Programm mit erstklassigen Referenten zusammenstellen konnten

Freuen Sie sich unter anderem auf  Damian Borth, Annika Schröder, Klaus Bauer, Norbert Gaus, Bernd Heinrichs, Andreas Klug, Dietmar Harhoff, Alexander Löser, Gesa Schöning, Oliver Gluth, Reiner Kraft, Thomas Jarzombek und Daniel Saaristo.

Das Highlight ist die Keynote von Prof.  Jürgen Schmidhuber, einer der wichtigsten KI Forscher und der Erfinder der LSTMs, die die Basis von jeder Übersetzungs- und Speech-to Text Applikation (wie z.B. Alexa ) sind

Kommen Sie nach München, erleben Sie spannende Vortrage und diskutieren Sie mit uns über die neuesten Entwicklungen.

Wir sehen uns in München!

Jörg Bienert

17. Januar 2018
Posted by aisolab
06

Bot beim Lesen erstmals besser als ein Mensch

Die international konkurrierenden KI-Entwickler ließen von ihnen entwickelte spezifische Programme, die lesen können, zum Squad-Test antreten. Damit demonstrierten sie, wie es um die Weiterentwicklung von Lernen und Sprachverstehen der Maschinen bestellt ist. Fast alle globalen Technologieunternehmen, darunter Google, Facebook, IBM und Microsoft, verwenden den renommierten Lese- und Verständnistest Stanford Question Answering Dataset, um sich miteinander und im Vergleich mit einer durchschnittlichen menschlichen Testperson zu messen. Squad umfasst dazu mehr als 100 000 Fragen, die sich auf den Inhalt von über 500 Wikipediaartikeln beziehen. Squad stellt Fragen mit objektivierbaren Antworten wie zum Beispiel „Wodurch kommt es zu Regen?“. Andere Fragen, die beantwortet werden mussten, waren beispielsweise: „Welche Nationalität hatte Nikola Tesla?“ oder „Wie groß ist der Regenwald?“ oder „Welche Musikgruppe trat in der Super Bowl 50 Halbzeitshow auf?“ Ergebnis: Der Bot besteht. Und nicht nur das. Er war erstmals besser als der Mensch.

Machine Learning Entwicklung

Die offiziell erste KI-Lesemaschine, die es geschafft hat, beim„ Squad“ besser abzuschneiden als ein Mensch ist der neue Software-Agent der Alibaba Group Holding Ltd., der im chinesischen Hangzhou vom firmeneigenen Institute of Data Science and Technologies entwickelt wurde. Die Forschungsabteilung des chinesischen e-Commerce-Riesen teilte mit, dass das maschinelle Sprachverarbeitungsprogramm ein Testergebnis von 82,44 Punkten erreichen konnte. Damit hat er den bislang geltenden Rekord von 82,30 Punkten geknackt, der noch von einem Menschen gehalten wurde. Der chinesische e-Commerce Gigant Alibaba meldet damit weiter seine führende Rolle in der Entwicklung von Technologien zum Lernen von Maschinen und der Künstlichen Intelligenz an. Allerdings ist Microsoft Alibaba dicht auf den Fersen. Microsofts Lesemaschine wurde nur knapp vom Testergebnis des Alibaba Programms übertroffen.

Was Bots besser macht

Um eine von Squad gestellte Frage zu beantworten, ist es notwendig, dass das Botprogramm präzise eine Vielzahl verfügbarer Informationen filtern kann, um dann richtige und einzig relevante Antwort zu geben. Das Programm, das das menschliche Gehirn als neurales Netzwerkmodell abbildet, arbeitet sich über Absätze zu Sätzen und von da zu Wörtern vor und versucht, Abschnitte zu identifizieren, die möglicherweise die gesuchte Antwort enthalten könnten.

Der Entwicklungschef für Programme für Künstliche Intelligenz und Sprache, Si Luo, teilte mit, das Ergebnis mache deutlich, dass Maschinen objektiv zu beantwortende Fragen nun mit hoher Genauigkeit beantworten könnten.
Das eröffne neue Möglichkeiten für die Künstliche Intelligenz und ihren Einsatz im Kundendienst. Da lesende Roboter in Zukunft auch beispielsweise medizinischen Anfragen über das Internet beantworten könnten, werde das den Bedarf an menschlichem Input stark verringern. Ein von Alibaba genutztes Botprogramm namens „Xiaomi“ beruht auf den Fähigkeiten der lesenden KI-Maschine und wurde bereits erfolgreich eingesetzt. Beim sogenannten Single´s Day, dem jährlich wiederkehrenden, größten Shoppingereignis Asiens am 11. November kam die Software erfolgreich zum Einsatz.

Der Vorteil der Bots: Sie können rund um die Uhr im Einsatz sein, merken sich alle Ergebnisse von relevanten Anfragen aus der Vergangenheit und können auf sie jederzeit zur Beratung des Kundenanliegens zurückgreifen. Während ein Kundenberater im Schnitt 230 Kundenanfragen am Tag bearbeite, habe „Xiaomi“ täglich 3,5 Millionen Anfragen bearbeiten können.

KI weiter vor bestehender Herausforderung

Immer noch haben Bots allerdings Schwierigkeiten mit sprachlichen Anfragen, die vage oder umgangssprachlich, ironisch oder schlichtweg grammatikalisch falsch sind. Wenn keine vorbereiteten Antworten vorliegen, ist es dem Roboterprogramm auch nicht möglich, beim Lesen eine passende Antwort zu finden. Dann reagiert es nicht adäquat und antwortet falsch.

15. Januar 2018
Posted by aisolab
07

Die Fusion aus Atomkernen könnte eine der Lösungen zukünftiger Energieprobleme werden und stellt möglicherweise einen wichtigen Fortschritt in der technologischen Entwicklung der Menschheit dar. Noch sind die Fusionreaktionen schwer zu kontrollieren, potentiell beschädigen sie die sogenannten Tokamaks, die Fusionsreaktoren, die Energie mittels Magnetfeldern aus Plasma gewinnen. Jederzeit können Störungen der Reaktionen geschehen, die den Ablauf der Fusion unterbrechen. Künstliche Intelligenz kann dabei helfen, diese Störungen vorherzusehen und richtig auf sie zu reagieren, so dass die Schäden sich gering halten und der Ablauf so flüssig wie möglich vonstatten geht. Wissenschaftler sind dabei, solche Computerprogramme zu entwickeln, die es ihnen ermöglichen, Vorhersagen über das Verhalten des Plasmas zu tätigen.

Wissenschaftler der Princeton University und des Princeton Plasma Physics Laboratory des U. S. Department of Energy führen erste Versuche mit der künstlichen Intelligenz durch, um die Fähigkeit zur Vorhersage durch die Software zu testen. Die Gruppe wird angeführt von William Tang, einem namhaften Physiker und Professor an der Princeton University. Er und sein Team entwickeln den Code für ITER, dem „International Thermonuclear Experimental Reactor“ in Frankreich. Ihr Ziel ist es, die Einsetzbarkeit von künstlicher Intelligenz in diesem Bereich der Wissenschaft zu demonstrieren. Die Software nennt sich „Fusion Recurrent Neural Network“, kurz FRNN, und setzt eine Form des Deep Learnings ein. Hierbei handelt es sich um eine verbesserte Variante des Machine Learnings, die wesentlich mehr Daten verarbeiten kann. FRNN ist besonders gut darin, sequentielle Daten auszuwerten, die über weitreichende Muster verfügen. Bei dem Team handelt es sich um das erste, das ein Programm mit Deep Learning einsetzt, um die komplexen Vorgänge bei den Fusionreaktionen vorherzusagen.

Mit dieser Herangehensweise konnte das Team akkuratere Vorhersagen tätigen als zuvor. Bisher haben sich die Experten am Joint European Torus in Großbritannien versucht, dem größten Tokamak im Betrieb. Bald soll es sich ITER stellen. Für ITER soll die Entwicklung der künstlichen Intelligenz des Fusion Recurrent Neural Network so weit entwickelt sein, dass sie bis zu 95% korrekte Vorhersagen treffen kann, wenn sich Störfälle einstellen. Gleichzeitig soll das Programm weniger als 3% falsche Alarme geben. Das Deep Learning Programm wird über GPUs betrieben, „Graphic Processing Units“, im Gegensatz zu leistungsschwächeren CPUs. Diese ermöglichen es, tausende Programme gleichzeitig laufen zu lassen. Eine fordernde Arbeit für die Hardware, die auf verschiedene GPUs verteilt werden muss. Dafür wird der zurzeit schnellste Supercomputer der Vereinigten Staaten benutzt, in der Oak Ridge Leadership Computing Facility.

Ursprünglich wurden die ersten Versuche auf den Rechnern der Princeton University durchgeführt, wo sich zeigte, dass die künstliche Intelligenz des FRNN durchaus in der Lage ist, die riesigen Datenmengen zu verarbeiten und hilfreiche Vorhersagen zu treffen. Damit leistet die künstliche Intelligenz der Wissenschaft einen wertvollen Dienst, indem es das Verhalten des Plasmas haargenau vorhersagen kann. FRNN soll bald bei Tokamaks überall auf der Welt eingesetzt werden und einen wichtigen Beitrag beim Fortschritt der Menschheit leisten.

13. Januar 2018
Posted by aisolab
08

Maschinelles Lernen stößt in immer neue Dimensionen vor. Inzwischen kann die Künstliche Intelligenz etwas, das bislang dem Menschen vorbehalten schien: Sie versteht Emotionen. Das kommt bei verschiedenen Maschinen zum Einsatz.

 

Künstliche Intelligenz: Vorbild menschliches Gehirn

Die moderne KI und maschinelles Lernen über neuronale Netze haben ein natürliches Vorbild: unser menschliches Gehirn. Dieses ist für die Lösung all unserer bekannten Probleme das effektivste Werkzeug. Ein wichtiger Aspekt unserer Intelligenz fehlte jedoch in den bisherigen KI-Programmen. Es handelt sich um Empathie und emotionale Intelligenz. Mit diesen Fähigkeiten können Menschen Gefühle erfassen und ebenso intuitiv Entscheidungen “aus dem Bauch” treffen. Bislang sind intelligente Softwareprogramme zwar durchaus imstande, Sprache zu verstehen, darauf zu antworten und auch nach einer bestimmten Datenvorlage selbstständig zu handeln, also im landläufigen Sinne intelligent zu agieren. Doch sie fühlen sich in niemanden ein. Jetzt sind die Entwickler der Integration von Emotionen in die Maschinenintelligenz einen Schritt näher gekommen. Ingenieure haben eine Methode entwickelt, die es dem Computer ermöglicht, menschliche Gefühle anhand physiologischer Reaktionen und Gesichtszüge zu erkennen. Die Pioniere der KI-Programme - Google, Microsoft und andere Giganten - sind sehr daran interessiert. Sie möchten diesen KI-Aspekt in ihre bestehenden Lösungen integrieren oder eine computergestützte Stimmungsanalyse erstellen, die Maschinen dabei hilft, menschliche Gefühle richtig zu interpretieren und entsprechend zu handeln. Das können Maschinen aller Art sein, selbst Baumaschinen.

Wie funktioniert maschinelles Lernen von Emotionen?

Daten, die einer Maschine den emotionalen Zustand eines Menschen mitteilen, sendet dieser auf vielfältige Weise aus. Dazu gehören:

  • Stimmklang
  • Sprechmuster
  • Verwendung bestimmter Ausdrücke und Floskeln
  • Mimik
  • physiologische Signale wie Puls, Herzfrequenz und Körpertemperatur
  • Gesten
  • Körpersprache

Die Physiologie kann nicht jede Maschine erfassen, weil hierfür bestimmte Sensoren nötig sind. Doch alle anderen Signale sind audiovisuell erkennbar. Vor allem die Sprache und die Mimik enthalten diverse nonverbale Signale, die sehr aussagekräftig sind. So zeigen Forschungsergebnisse, dass bei einer Konversation 55 % der Botschaften im Lächeln, in der Mimik und in Körpersignalen wie einem Schulterzucken verborgen sind, 38 % im Tonfall und nur 7 % in der tatsächlichen Sinngebung der Worte. Die bisherigen Softwarelösungen für die Sprachanalyse vernachlässigen also den größten Teil der Botschaft, sie identifizieren nur das Wort selbst. So erkennt aktuell ein Smartphone mit Spracherkennung noch nicht einen Satz mit Ausrufe- oder Fragezeichen. Doch die Firmen, die künstliche Intelligenz einsetzen, lernen schnell dazu. Diese Unternehmen wollen die emotionale Wirkung von Werbespots bewerten. Eine solche Situation kann möglich sein, indem man die Kamera auf einem Laptop einschaltet, während man sich ein Werbevideo ansieht. Bis zum Computer, der sich wirklich mit uns "einfühlt", sollte nicht viel mehr Forschungszeit vergehen. Experten weisen bereits darauf hin, dass es dann zu einer ethischen Diskussion kommen könnte: Hat der Computer Gefühle, hat er Rechte?

09. Januar 2018
Posted by aisolab
09

Visionäre im Bereich Künstlicher Intelligenz waren nie um kühne Prognosen verlegen. Schon in den Fünfzigerjahren begleitete die Forschung eine Reihe von zum Teil utopischen Vorhersagen hinsichtlich zukünftiger Entwicklungen und ihrer Auswirkungen auf die Gesellschaft. So naiv derartige Prognosen und Wunschvorstellungen im Rückblick wirken mögen – kurzfristige Trends bei der Entwicklung intelligenter Systeme gleich welcher Art lassen sich durchaus erkennen und sinnvoll nutzen. 2018 wird die Entwicklung der Artificial Intelligence Fahrt aufnehmen wie nie zuvor. Hier sind sieben Trends, die Sie kennen sollten, wenn Sie 2018 beim Thema KI mitreden wollen.

Vom Hype zur Realität

Nachdem sich viele Versprechungen früher KI-Forschung nicht einmal ansatzweise erfüllt hatten, wurde es in den Neunzigerjahren ruhiger um das Thema Künstliche Intelligenz. Aber mit der Jahrtausendwende feierte die KI ein Comeback, das sich in den Folgejahren zum einem Hype entwickelte, der sogar den naiven Optimismus der Frühzeit in den Schatten stellen sollte. Seit einigen Jahren ist der Punkt abzusehen, an dem aus der lange vor allem theoretisch geführten Debatte über Möglich- und Machbarkeiten endlich praktische Umsetzungen entstehen, die für sich selbst bestehen können. Eher philosophische Themen wie die Frage nach der prinzipiellen Möglichkeit starker und allgemeiner KI werden zunehmend durch die Macht des Faktischen verdrängt. Auch alte Ängste vor der Übermacht zukünftiger intelligenter Maschinen verblassen zunehmend neben dem Nutzwert der heute schon absehbaren Technologien. Für 2018 sehen wir voraus, dass sich der Schwerpunkt des Feldes Künstlicher Intelligenz noch deutlich stärker in die Praxis verlagert. Grundsätzliche Fragen treten immer mehr in den Hintergrund, die konkreten Anwendungen der verschiedenen Technologien erobern den Alltag und werden von Unternehmen und Endbenutzern als selbstverständlich akzeptiert.

Private Unternehmen geben den Ton an

Auch wenn grundsätzliche Erwägungen zur maschinellen Intelligenz etwas an Gewicht verloren haben – die Forschung in allen Teilbereichen der Artificial Intelligence läuft weiter auf Hochtouren. Hierbei liegt auch 2018 der Akzent auf zwei Trends: Neben der bereits erwähnten stärkeren Betonung praktischer Aspekte und der Realisierung echter intelligenter Systeme in der Praxis ist hier vor allem die Verlagerung der Spitzenforschung vom Universitäten Sektor hin zu einer Reihe von Global Playern in der Informationstechnologie zu beobachten. Tatsächlich wird neben der Anwendung von KI-Technologien in Endgeräten die Bereitschaft von Unternehmen immer stärker sichtbar, radikalere Konzepte zu erkunden und nur gegebenenfalls für den Produktsektor nutzbar zu machen. Immer mehr Unternehmen bilden zu diesem Zweck Arbeitsgruppen und Tochterunternehmen nach dem Skunk works-Prinzip: Forschungsetats, von denen universitäre Fachbereiche nur träumen können, werden in bisweilen auch utopische Projekte investiert, deren wirtschaftlicher Gegenwert bestenfalls unsicher ist. Das bekannteste Beispiel ist wohl Googles Forschungsunternehmen X.

Popularisierung und Demokratisierung

Jahrzehntelang galten KI-Konzepte in Programmierer kreisen als esoterisch, als Deep Magic. Dass Künstliche Intelligenz in der Anwendungsentwicklung zunehmend auch für Nicht-Fachleute verfüg- und nutzbar gemacht wird, ist eine weitere Entwicklung, die wir für das Jahr 2018 vorhersehen. Ob in Form von Programmbibliotheken und APIs oder als Baukasten-Elemente in Entwicklungsumgebungen für Laien: Künstliche Intelligenz wird einem weiteren Personenkreis für den modularen Einsatz in Systemen aller Art verfügbar sein. Gerade in Bereichen wie Data Mining und Mustererkennung wird es durch den immer stärker spürbaren Fachkräftemangel notwendig werden, auch solches Personal an die Möglichkeiten von KI heranzuführen, das von Haus aus nicht die bislang nötigen Kenntnisse mitbringt. In der Folge wird Artificial Intelligence auch für Anwender immer selbstverständlicher als frei verfügbares Gestaltungselement in Erscheinung treten: zum Beispiel bei Assistenten im Netz, auf Mobilgeräten oder in Sozialen Netzwerken.

Intelligente Helfer: virtuelle Assistenten

Sie begleiten die meisten von uns schon seit Jahren: virtuelle Assistenten, die auf Mobilgeräten oder im Bereich Heimautomation auf unsere Befehle reagieren und auf Wunsch das Web durchsuchen, die Musiklautstärke regeln oder unsere Einkaufslisten an Händler weiterleiten. Obwohl bereits jetzt ein alltägliches Beispiel für KI, wird dies ein weiterer Trend für 2018: Virtuelle Assistenten werden flexibler und intelligenter. Und sie werden sich weiter verbreiten, ob als Informationsquelle für Kunden oder als kluger Begleiter im Alltag. Die bereits erfolgreichen Systeme dieser Sparte wie Amazons Alexa oder Google Home haben hier bereits Maßstäbe gesetzt und werden den Weg für neue Entwicklungen und Verbesserungen ebnen.

Personalisierung von Information und Marketing

Wer regelmäßig im Internet unterwegs ist, kennt den Effekt: Werbung und andere Produkthinweise werden früheren Suchen nach Stichworten oder Besuchen auf Webseiten angepasst. KI wird, basierend auf den jüngsten Entwicklungen in den Bereichen maschinelles Lernen und Mustererkennung, auch hier neue Möglichkeiten eröffnen. Intelligente Agenten und Assistenten werden nicht nur Werbung und Nachrichtenergebnisse aussuchen, sondern auch die gesamte Nutzererfahrung auf die Bedürfnisse des Anwenders anpassen können. 2018 wird das Jahr, in dem Marketing und Informationsmanagement intelligent werden mit für den Benutzer spürbaren Auswirkungen hinsichtlich der Möglichkeiten bei Personalisierung und Wählbarkeit der Services. Gleichzeitig wird sich KI aus Sicht des Endbenutzers auch in zunehmendem Maße unisichtbar machen: Das Resultat zählt, nicht die Technik dahinter. Ein weiterer spannender Aspekt wird das Zusammentreffen der neuen technischen Möglichkeiten mit den ebenfalls noch jungen gesetzlichen und politischen Rahmenbedingungen zum Datenschutz und zum Schutz der Privatsphäre, vor allem in der Europäischen Union.

Die reale Welt

Nicht nur in virtuellen Umgebungen wird KI 2018 Einzug halten, sondern auch in der physischen Wirklichkeit. Schon lange gilt Robotik als eine Schlüsseldisziplin im Bereich; die dahinterstehende Überlegung ist die, dass echte Intelligenz nur in direkter Auseinandersetzung mit der physischen Welt entstehen kann. Wie dem auch sei, 2018 wird das Jahr, in dem Artificial Intelligence auch zur Schlüsseltechnologie in der realen Welt wird. Besonders medienwirksam ist in diesem Bereich das Bemühen, Autos das autonome Fahren beizubringen, und wir werden im neuen Jahr gewaltige Fortschritte auf diesem Feld sehen. Aber auch die Medizintechnik wird intelligenter werden: KI-Systeme nutzen hochentwickelte Verfahren zur Muster- und Bilderkennung, um Daten aus Quellen wie MRT, PET, CT oder Röntgen zu interpretieren und damit die Diagnostik von schwerwiegenden Krankheiten zu erleichtern. Ganz allgemein werden Maschinen intelligenter: Ganze Supply-Chains und Produktionskreisläufe werden über das Internet of Things zu selbstständig entscheidenden und agierenden Systemen, die Ressourcen effizienter nutzen und mit weniger Aufwand an Energie, Rohstoffen und Zeit mehr produzieren.

KI als Investitionsschwerpunkt

Die derzeitige und zukünftige Rolle der KI führt natürlich zu stark erhöhten Investitionen bei der Erforschung und Implementierung der damit entstehenden Technologien. Nicht nur werden 2018 Unternehmen ihre Ausgaben in diesem Bereich erhöhen, auch auf dem Feld der Personalsuche hat der Krieg um die besten Köpfe längst begonnen. KI wird zum Schwerpunkt wirtschaftlichen Investments wie auch der Personalentwicklung. Auf absehbare Zeit wird das Thema in der Wirtschaft vom Personalmangel ebenso begleitet werden wie vom Innovationspotential. Ob diese Problematik den Fortgang der Entwicklung nachhaltig hemmen wird bleibt abzuwarten. Es liegt an der Gesellschaft als ganzer, sich schon jetzt darum zu kümmern, die vorhandenen Lücken zu schließen und zukünftigen Defiziten vorzubeugen. So wird 2018 – nicht nur im Bereich KI – hoffentlich ein gutes Jahr.

20. Dezember 2017
Posted by aisolab
10

NASA entdeckt Sonnensystem mithilfe Künstlicher Intelligenz von Google

Künstliche Intelligenz von Google hat der NASA geholfen, acht Planeten in einem fernen Sonnensystem zu entdecken. Dieses System ähnelt sehr dem unseren - es könnte dort Leben existieren.

Leben auf einem Kepler 90 Planeten?

Kepler 90 heißt der entdeckte Stern, acht Exoplaneten umkreisen ihn. Das sind Himmelskörper außerhalb unseres Sonnensystems, die um einen fernen Stern kreisen und ähnlich wie die Erde, die Venus, der Mars, der Merkur, der Jupiter und so fort beschaffen sind. Es ist das erste Sonnensystem mit einer so großen Planetenfamilie, das Astronomen je entdeckt haben. Den achten dieser Exoplaneten identifizierte ein neuronales Netzwerk, dessen künstliche Intelligenz - ein Produkt von Google - der NASA bei der Entdeckung half. Dieses Netzwerk durchforstete unermüdlich die Daten, die das Kepler-Weltraumteleskop in großer Menge gesammelt hatte. Es ist nicht ausgeschlossen, dass unter dem Stern Kepler 90 Leben existiert. Die ferne Sonne - immerhin 2.500 Lichtjahre entfernt - ist bislang die einzige uns bekannte, die so viele Himmelskörper wie unsere heimische Sonne um sich versammelt. Die Entdeckung darf also als ungemein spektakulär gelten, anfangs hielten die NASA-Wissenschaftler sie sogar geheim. Spektakulär ist auch der Einsatz der Künstlichen Intelligenz, mit welcher der Fund überhaupt gelang. Die Software trainierte mit Planetensignalen und lernte dabei selbstständig, welche Symptome auf einen Exoplaneten verweisen könnten. Zu sehen sind diese Himmelskörper von der Erde aus nicht, auch nicht mit dem stärksten Teleskop. Vielmehr werden minimale Abdunkelungen von Sternen ausgewertet. Diese können nur durch ihre Trabanten in einer gewissen Größenordnung und mit einer bestimmten Umlaufbahn erzeugt werden. Es muss sich mithin um Exoplaneten, nicht um Kometen oder Asteroiden handeln.

Künstliche Intelligenz: Wie funktionierte sie für astronomische Zwecke?

Die Kepler-Datensätze analysieren üblicherweise Experten in mühevoller Kleinarbeit. Sie entwickeln im Laufe der Zeit handfeste Verweise auf Helligkeitsschwankungen eines Sterns, die auf einen Planetentransit hindeuten. Aus diesen Eckdaten werden dann automatisierte Tests entwickelt, doch auch diese würden für den umfassenden Datenabgleich noch viele Jahrzehnte benötigen, um einen Exoplaneten nachzuweisen. Die geringen Helligkeitsschwankungen können nämlich viele verschiedene Gründe haben. Daher werden kleinere und auch von ihrem Stern relativ weit entfernte Planeten nur sehr schwer entdeckt. Das neuronale Netzwerk hingegen, das Google der NASA zur Verfügung stellte, erhielt als Input 15.000 Planetensignale, die einst Astronomen bestätigt hatten. Anhand dieser Planetensignale trainierte nun die Künstliche Intelligenz, wie ein Signal beschaffen sein muss, um einen wirklichen Exoplaneten anzuzeigen. Das funktioniert sogar mit extrem schwachen Signalen. Die erreichte Genauigkeit des neuronalen Netzwerks liegt inzwischen bei 96 %, das gilt unter Forschern als sensationell.

Die exakte KI-Methode, die bei der Entdeckung des achten Kepler-Planeten namens Kepler 90i angewendet wurde, heißt Deep Learning. Hierbei optimiert ein neuronales Netz über seine hidden layers (Zwischenlagen) permanent seine innere Struktur und kann dadurch seine Lernalgorithmen erweitern und verbessern. Es entsteht ein stabiler Lernerfolg, der für die Auswertung riesiger Datenmengen auch nötig ist. Die NASA-Wissenschaftler können daher Kepler 90i als Merkur-ähnlichen Himmelskörper mit rund 420 °C Oberflächentemperatur und einer Größe von etwa 130 % der Erdgröße beschreiben, der seinen Stern in 14,4 Tagen einmal umkreist - also ein sehr kurzes Jahr hat. Doch mit Deep Learning konnten auch schon der Erde noch ähnlichere Exoplaneten entdeckt werden. Möglicherweise rückt damit der Beweis für außerirdisches Leben in greifbare Nähe.