16. Februar 2018
Posted by aisolab
01

Künstliche Intelligenz ist heute im Begriff, in allen Lebensbereichen moderner Gesellschaften Einzug zu halten. Bislang standen jedoch Anwendungsgebiete im Fokus, die wenig alltäglich sind, wie Medizin, Forschung und Hochtechnologie. Wenig später folgte die Welt der privaten Unterhaltung und Mobilität: Intelligente Assistenten in Smartphones und Autos ebenso wie in der Unterhaltungselektronik und im Web. Jetzt dringt KI auch in einen Bereich vor, der ein fester Bestandteil des Alltagslebens außer Haus ist: der tägliche Einkauf.

Das vor allem als Online-Großhändler bekannte Unternehmen Amazon geht mit dem Konzept eines intelligenten Supermarktes an den Start. In Seattle, im US-Bundesstaat Washington, eröffnete der Konzern im Januar 2018 den ersten Amazon Go Supermarket. Hier soll dem Kunden der alltägliche Einkauf, vor allem von Lebensmitteln, in neuer, vereinfachter Form geboten werden: kein Anstehen an der Kasse, kein Einscannen von Barcodes, keine Angestellten. Der Kunde betritt den Laden, nimmt Waren aus den Regalen, steckt sie ein und verlässt das Geschäft, fertig. Der fällige Betrag wird über das Amazon-Konto der Kunden abgebucht, die entnommenen Waren werden in der Lagerbuchhaltung vom Bestand abgezogen.

Was so einfach klingt, erfordert einiges an intelligenter Technologie im Hintergrund und ganz ohne Voraussetzungen funktioniert auch der Einkauf hier nicht: Kunden benötigen die (kostenlose) Amazon Go-App und melden sich beim Betreten des Ladens an, indem sie vom System einen QR-Code vom Smartphone scannen lassen. Danach allerdings kann das Telefon getrost eingesteckt werden, denn von nun an übernimmt die künstliche Intelligenz des Ladens mit ihrem lernenden Algorithmus den Ablauf. Während sie vom System per Kamera samt Personenerkennung ständig beobachtet werden, entnehmen die Kunden die Waren aus den Regalen, die ihrerseits als Waagen fungieren. Die entnommene Stückzahl einer Ware wird dem Kunden im virtuellen Warenkorb gutgeschrieben, zurückgelegte Waren werden wieder gelöscht. Ist der Einkauf beendet, registriert die KI es, wenn der Kunde das Geschäft verlässt, und belastet kurz darauf sein Amazon-Konto mit dem fälligen Betrag.

Der entscheidende technologische Fortschritt ist hierbei sicherlich die Selbstverständlichkeit, mit der der Waren- und Geldtransfer vonstattengeht. Die Kunden müssen keine Waren einscannen und der Einkauf geschieht unter ständiger optischer und sensorischer Kontrolle der KI, ohne dass Vertrauen in die Ehrlichkeit der Kunden gesetzt werden müsste. Ganz ohne Personal kommt aber auch Amazons intelligenter Supermarkt nicht aus: Mitarbeiter sorgen für den Warennachschub in den Regalen, bereiten verzehrfertige Nahrungsmittel vor und beaufsichtigen den Verkauf von Alkohol, um gesetzlichen Vorgaben zu genügen. Nicht eindeutig sind auch die Aussagen von Amazon zu der Frage, ob es sich bei dem neuen Konzept um eine Machbarkeitsstudie handelt, oder um den Prototypen einer ganzen Kette von Geschäften. Ganz allgemein ist Amazons Vorstoß wohl als Teil einer Entwicklung zu sehen, in deren Verlauf Funktionsweise und Erscheinungsbild des Lebensmittel- und Einzelhandels zunehmend verändert werden: Nach und nach verschwinden Kassen und Personal aus den Läden und der Supermarket wird – so die Vision – zum intelligenten autonomen System.

09. Februar 2018
Posted by aisolab
02

Machine Learning und künstliche neurale Netze sind schon seit einiger Zeit viel diskutierte und hochspannende Themen der aktuellen Forschung. Google ist es nun gelungen, eine künstliche Intelligenz (AI von engl. Artificial Intelligence) zu erschaffen, die ihre eigenen "Kinder", also ebenfalls künstliche Intelligenzen, hervorbringen kann. Und die sind verlässlicher und präziser als alle vergleichbaren, durch Menschen geschaffene AIs.

Was ist Machine Learning?

Machine Learning bedeutet im Grunde genau das, was das Wort vermuten lässt: Lernen, also die Generierung von Wissen aus Erfahrung. Allerdings wird das Wissen automatisiert durch ein Computersystem gewonnen. Durch die Automatisierung der Datenanalyse lassen sich große Datenmengen zur Mustererkennung schnell verarbeiten – viel schneller und genauer als es ein Mensch könnte.

Das Projekt AutoML

Auf Basis dieses Ansatzes hat Google nun eine eigene künstliche Intelligenz geschaffen, die Kinder erzeugen kann. Die AI AutoML schlägt für ihre AI Kinder bestimmte Softwarearchitekturen und Algorithmen vor. Diese werden anschließend getestet und auf Basis der Testergebnisse verbessert. Dabei wird die Methodik des Reinforcement Learning verwendet. Das bedeutet, die AI erstellt ohne Vorgaben eines Menschen einen Vorgehensplan oder eine Strategie und passt diese durch entsprechendes positives und negatives Feedback an. Zusammen mit der iterativen Verbesserung durch mehrere Zyklen werden die AI Kinder in der Ausführung ihrer Aufgaben somit immer besser.

Aufgaben der AI

Das Ziel des Google-Supercomputers ist die Erkennung von Objekten wie Menschen, Tieren oder Autos in einem Video. NASNet, wie das AI Kind heißt, ist dabei sehr erfolgreich: Es ist dazu in der Lage 82.7% der Objekte in den ihm gezeigten Videos korrekt zu erfassen. Damit ist es besser als alle AIs, die unter ähnlichen Bedingungen von Menschen implementiert wurden.

Die automatische Erkennung von Objekten, die damit gelungen ist, ist für viele Branchen von Interesse. Denn die so erzeugten Systeme sind nicht nur genauer, sie können auch deutlich komplexer sein. Erste Anwendungen finden sich zum Beispiels in selbstfahrenden Autos. Und auch andere Unternehmen werden davon profitieren, dass sie AIs für schwierige Aufgaben, beispielsweise für Operationen, schneller und präziser entwickeln können.

Der ethische Aspekt

Trotz der vielversprechenden Zukunftsaussicht müssen sich große Unternehmen, die momentan im Bereich künstlicher Intelligenz forschen, mit ethischen Fragen auseinandersetzen. Was passiert beispielsweise, wenn AutoML zu schnell AI Kinder erzeugt, als die Gesellschaft nachziehen kann? Oder was passiert, wenn die AI zu irgendeinem Punkt ein Eigenleben entwickelt? Wichtige Vorantreiber der Forschung, neben Google unter anderem auch Amazon und Facebook, beschäftigen sich daher mit der verantwortungsbewussten Erzeugung von künstlichen Intelligenzen.

06. Februar 2018
Posted by aisolab
03

Letzte Woche hatten wir einen sehr erfolgreichen Tag auf dem Digital Demo Day in Düsseldorf.
Vor und vor allem nach unserer Präsentation hatten wir eine Menge interessanter Gespräche auf unserem Stand, auf dem wir Beispiele zum Thema Visual Computing mit AI und unsere AI-Cam gezeigt haben.
Wir haben uns sehr über viele neue Kontakte und das Treffen mit einigen Freunden aus unserem Netzwerk gefreut.

Unser großer Dank gilt Klemens Gaida und seinem Team, für die Organisation eines großartigen Events.

02. Februar 2018
Posted by aisolab
04

Die rasante Entwicklung der künstlichen Intelligenz hat in den letzten Jahren immer neue Ebenen erreicht, die wenig früher noch als reine Science-Fiction galten. Mit besonderer Aufmerksamkeit – und von verschiedenen Seiten auch mit besonders großen Befürchtungen – werden stets vor allem Neuigkeiten betrachtet, die in Richtung eines maschinellen Bewusstseins deuten. Derzeit verblüffen vor allem in dem Bereich Wahrnehmung und ihre Manipulation die von Maschinen erbrachten Leistungen Laien und sogar Fachleute in zunehmendem Maße.

Ein gutes Beispiel ist die Arbeit einer KI-Forschungsgruppe in der Entwicklungsabteilung des vor allem als Grafikkarten-Hersteller bekannten Unternehmens Nvidia. Den Forschern gelang es, einem künstlichen neuronalen Netz beizubringen, ausgehend von Bild- und Filmquellen diese Medien hinsichtlich bestimmter Charakteristika auf glaubwürdige Weise zu verändern. So ist es mit dieser Technologie möglich, das Wetter in einem Video zu ändern oder die Rasse eines Hundes auf einem Bild. Der entscheidende Punkt hierbei ist, dass Darstellungen in Bild- oder Videoform fast beliebig manipulierbar werden, ohne dass ein menschlicher Editor eingreifen muss. Die Ergebnisse sind bislang noch nicht perfekt, dürften aber in Zukunft noch wesentlich überzeugender werden.

Noch einen Schritt weiter gingen nun Wissenschaftler der Universität Kyoto: Sie wandten ein ähnliches Verfahren an, um eine künstliche Intelligenz die inneren Wahrnehmungsbilder im menschlichen Gehirn erkennen zu lassen.Die KI liest also gewissermaßen die Gedanken einer Person. Im Einzelnen passiert dabei dies: Ein neuronales Netz wird darauf trainiert, Bilder, die eine menschliche Versuchsperson ansieht, abzugleichen mit durch fMRT (funktionelle Magnetresonanztomographie) gewonnenen Daten der korrespondierenden Gehirnaktivität der Person. Auf diese Weise lernt die KI, externe Stimuli (die Bilder) mit den internen Zuständen im Gehirn (den MRT-Mustern) zu assoziieren. Erhält sie nach dieser Lernphase als Input nur noch MRT-Daten, ist sie in der Lage, das vom Menschen Wahrgenommene daraus zu rekonstruieren, ohne zuvor selbst Kenntnis von diesen Bildern genommen zu haben. Die dabei von der KI produzierten Abbilder dieser geistigen Vorgänge sind bislang alles andere als fotorealistisch, lassen aber das Ursprungsbild eindeutig wiedererkennen.

Eine auf den ersten Blick so bedrohlich wirkende Schlagzeile wie KI liest Ihre Gedanken sollte bei genauerem Hinsehen also nicht mehr soviel Unbehagen erzeugen. Das eigentliche „Gedankenlesen“, den Blick ins Gehirn, übernimmt weiterhin das MRT, und dafür ist es ja auch gedacht. Die künstliche Intelligenz dagegen beschränkt sich auf Mustererkennung durch ein neuronales Netz und die Anwendung des Gelernten auf neue Daten. Dabei liegt die Stärke neuronaler Netze in der Arbeitsgeschwindigkeit: Während Menschen Stunden benötigen, um neue Lektionen zu lernen, kann ein solches System Millionen von Lernvorgängen in der gleichen Zeit absolvieren. Die große Zahl an Durchgängen erzeugt im Netz ein sehr differenziertes System von Gewichtungen und Zuständen zwischen den Neuronen, sodass das Resultat mit andauerndem Training dem Vorbild immer ähnlicher wird. Die denkbaren Anwendungen sind vielfältig, aber vor allem in einer Hinsicht bietet diese Technologie faszinierende Verheißungen für die Zukunft: So könnte es Menschen, die nicht sprachlich oder schriftlich kommunizieren können, ermöglicht werden, ihre Gedanken und inneren Bilder mitzuteilen. Auch noch weiterreichende Anwendungen sind denkbar, etwa das direkte „Hochladen“ von geistigen Inhalten in Computernetzwerke.

29. Januar 2018
Posted by aisolab
05

 

Der Digital Demo Day steht vor der Tür, und wir freuen uns, daran teilzuhaben! Am 1. Februar präsentieren wir Ihnen unsere digitalen Lösungen und unsere innovativen AI-Technologien im Digital Hub in Düsseldorf.

Besuchen Sie uns auf dem Digital Demo Day, um die neuesten digitalen Trends kennenzulernen, über Anwendungsmöglichkeiten zu sprechen und tiefgehende Einblicke zu erhalten.

Tickets erhalten Sie hier

Wir sehen uns dort!

19. Januar 2018
Posted by aisolab
06

Kameras an Straßenkreuzungen und anderen vielbefahrenen Straßen sind keine Neuerung. Sie ermöglichen die Überwachung des Verkehrsgeschehens und liefern Bilder im Falle von Unfällen. In Zukunft könnten die Aufnahmen der Kameras noch wertvollere Dienste leisten – mithilfe der Künstlichen Intelligenz. Die Auswertung von Verkehrsdaten durch Supercomputers könnte bald dafür sorgen, dass die Straßen sicherer werden. Indem sie in kurzer Zeit Daten auswerten und den Verkehr analysieren. Wissenschaftler vom Texas Advanced Computing Center (TACC), dem Center for Transportation Research der Universität von Texas und die texanische Stadt Austin arbeiten an Programmen, die mittels Deep Learning und Data Mining die Straßen sicherer machen und Verkehrsprobleme beseitigen.


Die Wissenschaftler entwickeln eine Künstliche Intelligenz, die durch Deep Learning die Videoaufnahmen von Verkehrspunkten auswertet. Diese Software soll in der Lage sein, Objekte zu erkennen und richtig einzuordnen. Bei den Objekten handelt es sich um Autos, Busse, Lastwagen, Motorräder und um Ampeln und Menschen. Die Software ermittelt, wie sich diese Objekte bewegen und verhalten. Dadurch lassen sich Informationen gewinnen, die wiederum genauer analysiert werden können, um Verkehrsproblemen vorzubeugen. Das Ziel ist es, eine Software zu entwickeln, welche Verkehrsforscher bei der Auswertung von Daten zu helfen. Die Künstliche Intelligenz soll dabei flexibel einsetzbar sein und auch in Zukunft Verkehrsprobleme aller Art erkennen können, ohne dass sie jemand speziell dafür programmieren muss.

Dank des Deep Learnings ordnen die Supercomputers die Objekte richtig zu und schätzen zwischen den ermittelten Objekten die Verhältnisse im Straßenverkehr ein, indem sie den Bewegungen der Autos, Menschen etc. folgt. Nachdem diese Arbeit getan war, gaben die Wissenschaftler der Software zwei Aufgaben: Die Anzahl der Fahrzeuge zu zählen, welche eine Straße entlang fuhren. Und schwieriger: Beinahezusammenstöße zwischen Fahrzeugen und Fußgänger festhalten. Die Künstliche Intelligenz wertete Videomaterial von 10 Minuten aus und zählte mit zu 95%iger Sicherheit alle Fahrzeuge. Das Verkehrsaufkommen genau bestimmen zu können ist eine wertvolle Fähigkeit des Supercomputers. Zurzeit sind noch zahlreiche teure Sensoren nötig, um solche Daten zu gewinnen oder Studien müssen durchgeführt werden, die jeweils nur spezifische Daten erbringen würden. Die Software hingegen kann das Verkehrsvolumen über einen weiten Zeitraum beobachten und so Zahlen über das Verkehrsaufkommen liefern, die weitaus genauer sind. Dadurch lassen sich bessere Entscheidungen über die Gestaltung des Straßenverkehrs treffen. Im Falle der Beinahezusammenstöße konnten die Wissenschaftler dank der Künstlichen Intelligenz automatisch Situationen erkennen, in denen Fußgänger und Fahrzeuge sich bedrohlich nahe kamen. Dadurch können Verkehrspunkte, die besonders gefährlich sind, schon identifiziert werden, bevor Unfälle erst geschehen. Die analysierten Daten könnten sich als sehr aufschlussreich erweisen, wenn es darum geht, zukünftige Verkehrsprobleme aus dem Weg zu räumen.

 Das nächste Projekt: Die Software soll lernen, an welchen Stellen Fußgänger die Straße überqueren, wie die Fahrer auf Schilder reagieren, die sie auf die Straße überquerende Fußgänger hinweisen und sie soll herausfinden, wie weit die Fußgänger bereit sind zu laufen, um den Fußgängerweg zu erreichen. Das Projekt der Texas Advanced Computing Center und der Universität von Texas verdeutlicht, wie Deep Learning dabei helfen kann, den Aufwand der Analyse von Videomaterial zu reduzieren.

 

18. Januar 2018
Posted by aisolab
07

Am 15 und 16. März wird in München die erste und bereits anerkannte Handelsblatt Konferenz zur künstlichen Intelligenz stattfinden.

Wir haben intensiv bei der Organisation mitgeholfen und sind stolz darauf, dass wir ein tolles Programm mit erstklassigen Referenten zusammenstellen konnten

Freuen Sie sich unter anderem auf  Damian Borth, Annika Schröder, Klaus Bauer, Norbert Gaus, Bernd Heinrichs, Andreas Klug, Dietmar Harhoff, Alexander Löser, Gesa Schöning, Oliver Gluth, Reiner Kraft, Thomas Jarzombek und Daniel Saaristo.

Das Highlight ist die Keynote von Prof.  Jürgen Schmidhuber, einer der wichtigsten KI Forscher und der Erfinder der LSTMs, die die Basis von jeder Übersetzungs- und Speech-to Text Applikation (wie z.B. Alexa ) sind

Kommen Sie nach München, erleben Sie spannende Vortrage und diskutieren Sie mit uns über die neuesten Entwicklungen.

Wir sehen uns in München!

Jörg Bienert

17. Januar 2018
Posted by aisolab
08

Bot beim Lesen erstmals besser als ein Mensch

Die international konkurrierenden KI-Entwickler ließen von ihnen entwickelte spezifische Programme, die lesen können, zum Squad-Test antreten. Damit demonstrierten sie, wie es um die Weiterentwicklung von Lernen und Sprachverstehen der Maschinen bestellt ist. Fast alle globalen Technologieunternehmen, darunter Google, Facebook, IBM und Microsoft, verwenden den renommierten Lese- und Verständnistest Stanford Question Answering Dataset, um sich miteinander und im Vergleich mit einer durchschnittlichen menschlichen Testperson zu messen. Squad umfasst dazu mehr als 100 000 Fragen, die sich auf den Inhalt von über 500 Wikipediaartikeln beziehen. Squad stellt Fragen mit objektivierbaren Antworten wie zum Beispiel „Wodurch kommt es zu Regen?“. Andere Fragen, die beantwortet werden mussten, waren beispielsweise: „Welche Nationalität hatte Nikola Tesla?“ oder „Wie groß ist der Regenwald?“ oder „Welche Musikgruppe trat in der Super Bowl 50 Halbzeitshow auf?“ Ergebnis: Der Bot besteht. Und nicht nur das. Er war erstmals besser als der Mensch.

Machine Learning Entwicklung

Die offiziell erste KI-Lesemaschine, die es geschafft hat, beim„ Squad“ besser abzuschneiden als ein Mensch ist der neue Software-Agent der Alibaba Group Holding Ltd., der im chinesischen Hangzhou vom firmeneigenen Institute of Data Science and Technologies entwickelt wurde. Die Forschungsabteilung des chinesischen e-Commerce-Riesen teilte mit, dass das maschinelle Sprachverarbeitungsprogramm ein Testergebnis von 82,44 Punkten erreichen konnte. Damit hat er den bislang geltenden Rekord von 82,30 Punkten geknackt, der noch von einem Menschen gehalten wurde. Der chinesische e-Commerce Gigant Alibaba meldet damit weiter seine führende Rolle in der Entwicklung von Technologien zum Lernen von Maschinen und der Künstlichen Intelligenz an. Allerdings ist Microsoft Alibaba dicht auf den Fersen. Microsofts Lesemaschine wurde nur knapp vom Testergebnis des Alibaba Programms übertroffen.

Was Bots besser macht

Um eine von Squad gestellte Frage zu beantworten, ist es notwendig, dass das Botprogramm präzise eine Vielzahl verfügbarer Informationen filtern kann, um dann richtige und einzig relevante Antwort zu geben. Das Programm, das das menschliche Gehirn als neurales Netzwerkmodell abbildet, arbeitet sich über Absätze zu Sätzen und von da zu Wörtern vor und versucht, Abschnitte zu identifizieren, die möglicherweise die gesuchte Antwort enthalten könnten.

Der Entwicklungschef für Programme für Künstliche Intelligenz und Sprache, Si Luo, teilte mit, das Ergebnis mache deutlich, dass Maschinen objektiv zu beantwortende Fragen nun mit hoher Genauigkeit beantworten könnten.
Das eröffne neue Möglichkeiten für die Künstliche Intelligenz und ihren Einsatz im Kundendienst. Da lesende Roboter in Zukunft auch beispielsweise medizinischen Anfragen über das Internet beantworten könnten, werde das den Bedarf an menschlichem Input stark verringern. Ein von Alibaba genutztes Botprogramm namens „Xiaomi“ beruht auf den Fähigkeiten der lesenden KI-Maschine und wurde bereits erfolgreich eingesetzt. Beim sogenannten Single´s Day, dem jährlich wiederkehrenden, größten Shoppingereignis Asiens am 11. November kam die Software erfolgreich zum Einsatz.

Der Vorteil der Bots: Sie können rund um die Uhr im Einsatz sein, merken sich alle Ergebnisse von relevanten Anfragen aus der Vergangenheit und können auf sie jederzeit zur Beratung des Kundenanliegens zurückgreifen. Während ein Kundenberater im Schnitt 230 Kundenanfragen am Tag bearbeite, habe „Xiaomi“ täglich 3,5 Millionen Anfragen bearbeiten können.

KI weiter vor bestehender Herausforderung

Immer noch haben Bots allerdings Schwierigkeiten mit sprachlichen Anfragen, die vage oder umgangssprachlich, ironisch oder schlichtweg grammatikalisch falsch sind. Wenn keine vorbereiteten Antworten vorliegen, ist es dem Roboterprogramm auch nicht möglich, beim Lesen eine passende Antwort zu finden. Dann reagiert es nicht adäquat und antwortet falsch.

15. Januar 2018
Posted by aisolab
09

Die Fusion aus Atomkernen könnte eine der Lösungen zukünftiger Energieprobleme werden und stellt möglicherweise einen wichtigen Fortschritt in der technologischen Entwicklung der Menschheit dar. Noch sind die Fusionreaktionen schwer zu kontrollieren, potentiell beschädigen sie die sogenannten Tokamaks, die Fusionsreaktoren, die Energie mittels Magnetfeldern aus Plasma gewinnen. Jederzeit können Störungen der Reaktionen geschehen, die den Ablauf der Fusion unterbrechen. Künstliche Intelligenz kann dabei helfen, diese Störungen vorherzusehen und richtig auf sie zu reagieren, so dass die Schäden sich gering halten und der Ablauf so flüssig wie möglich vonstatten geht. Wissenschaftler sind dabei, solche Computerprogramme zu entwickeln, die es ihnen ermöglichen, Vorhersagen über das Verhalten des Plasmas zu tätigen.

Wissenschaftler der Princeton University und des Princeton Plasma Physics Laboratory des U. S. Department of Energy führen erste Versuche mit der künstlichen Intelligenz durch, um die Fähigkeit zur Vorhersage durch die Software zu testen. Die Gruppe wird angeführt von William Tang, einem namhaften Physiker und Professor an der Princeton University. Er und sein Team entwickeln den Code für ITER, dem „International Thermonuclear Experimental Reactor“ in Frankreich. Ihr Ziel ist es, die Einsetzbarkeit von künstlicher Intelligenz in diesem Bereich der Wissenschaft zu demonstrieren. Die Software nennt sich „Fusion Recurrent Neural Network“, kurz FRNN, und setzt eine Form des Deep Learnings ein. Hierbei handelt es sich um eine verbesserte Variante des Machine Learnings, die wesentlich mehr Daten verarbeiten kann. FRNN ist besonders gut darin, sequentielle Daten auszuwerten, die über weitreichende Muster verfügen. Bei dem Team handelt es sich um das erste, das ein Programm mit Deep Learning einsetzt, um die komplexen Vorgänge bei den Fusionreaktionen vorherzusagen.

Mit dieser Herangehensweise konnte das Team akkuratere Vorhersagen tätigen als zuvor. Bisher haben sich die Experten am Joint European Torus in Großbritannien versucht, dem größten Tokamak im Betrieb. Bald soll es sich ITER stellen. Für ITER soll die Entwicklung der künstlichen Intelligenz des Fusion Recurrent Neural Network so weit entwickelt sein, dass sie bis zu 95% korrekte Vorhersagen treffen kann, wenn sich Störfälle einstellen. Gleichzeitig soll das Programm weniger als 3% falsche Alarme geben. Das Deep Learning Programm wird über GPUs betrieben, „Graphic Processing Units“, im Gegensatz zu leistungsschwächeren CPUs. Diese ermöglichen es, tausende Programme gleichzeitig laufen zu lassen. Eine fordernde Arbeit für die Hardware, die auf verschiedene GPUs verteilt werden muss. Dafür wird der zurzeit schnellste Supercomputer der Vereinigten Staaten benutzt, in der Oak Ridge Leadership Computing Facility.

Ursprünglich wurden die ersten Versuche auf den Rechnern der Princeton University durchgeführt, wo sich zeigte, dass die künstliche Intelligenz des FRNN durchaus in der Lage ist, die riesigen Datenmengen zu verarbeiten und hilfreiche Vorhersagen zu treffen. Damit leistet die künstliche Intelligenz der Wissenschaft einen wertvollen Dienst, indem es das Verhalten des Plasmas haargenau vorhersagen kann. FRNN soll bald bei Tokamaks überall auf der Welt eingesetzt werden und einen wichtigen Beitrag beim Fortschritt der Menschheit leisten.

13. Januar 2018
Posted by aisolab
10

Maschinelles Lernen stößt in immer neue Dimensionen vor. Inzwischen kann die Künstliche Intelligenz etwas, das bislang dem Menschen vorbehalten schien: Sie versteht Emotionen. Das kommt bei verschiedenen Maschinen zum Einsatz.

 

Künstliche Intelligenz: Vorbild menschliches Gehirn

Die moderne KI und maschinelles Lernen über neuronale Netze haben ein natürliches Vorbild: unser menschliches Gehirn. Dieses ist für die Lösung all unserer bekannten Probleme das effektivste Werkzeug. Ein wichtiger Aspekt unserer Intelligenz fehlte jedoch in den bisherigen KI-Programmen. Es handelt sich um Empathie und emotionale Intelligenz. Mit diesen Fähigkeiten können Menschen Gefühle erfassen und ebenso intuitiv Entscheidungen “aus dem Bauch” treffen. Bislang sind intelligente Softwareprogramme zwar durchaus imstande, Sprache zu verstehen, darauf zu antworten und auch nach einer bestimmten Datenvorlage selbstständig zu handeln, also im landläufigen Sinne intelligent zu agieren. Doch sie fühlen sich in niemanden ein. Jetzt sind die Entwickler der Integration von Emotionen in die Maschinenintelligenz einen Schritt näher gekommen. Ingenieure haben eine Methode entwickelt, die es dem Computer ermöglicht, menschliche Gefühle anhand physiologischer Reaktionen und Gesichtszüge zu erkennen. Die Pioniere der KI-Programme - Google, Microsoft und andere Giganten - sind sehr daran interessiert. Sie möchten diesen KI-Aspekt in ihre bestehenden Lösungen integrieren oder eine computergestützte Stimmungsanalyse erstellen, die Maschinen dabei hilft, menschliche Gefühle richtig zu interpretieren und entsprechend zu handeln. Das können Maschinen aller Art sein, selbst Baumaschinen.

Wie funktioniert maschinelles Lernen von Emotionen?

Daten, die einer Maschine den emotionalen Zustand eines Menschen mitteilen, sendet dieser auf vielfältige Weise aus. Dazu gehören:

  • Stimmklang
  • Sprechmuster
  • Verwendung bestimmter Ausdrücke und Floskeln
  • Mimik
  • physiologische Signale wie Puls, Herzfrequenz und Körpertemperatur
  • Gesten
  • Körpersprache

Die Physiologie kann nicht jede Maschine erfassen, weil hierfür bestimmte Sensoren nötig sind. Doch alle anderen Signale sind audiovisuell erkennbar. Vor allem die Sprache und die Mimik enthalten diverse nonverbale Signale, die sehr aussagekräftig sind. So zeigen Forschungsergebnisse, dass bei einer Konversation 55 % der Botschaften im Lächeln, in der Mimik und in Körpersignalen wie einem Schulterzucken verborgen sind, 38 % im Tonfall und nur 7 % in der tatsächlichen Sinngebung der Worte. Die bisherigen Softwarelösungen für die Sprachanalyse vernachlässigen also den größten Teil der Botschaft, sie identifizieren nur das Wort selbst. So erkennt aktuell ein Smartphone mit Spracherkennung noch nicht einen Satz mit Ausrufe- oder Fragezeichen. Doch die Firmen, die künstliche Intelligenz einsetzen, lernen schnell dazu. Diese Unternehmen wollen die emotionale Wirkung von Werbespots bewerten. Eine solche Situation kann möglich sein, indem man die Kamera auf einem Laptop einschaltet, während man sich ein Werbevideo ansieht. Bis zum Computer, der sich wirklich mit uns "einfühlt", sollte nicht viel mehr Forschungszeit vergehen. Experten weisen bereits darauf hin, dass es dann zu einer ethischen Diskussion kommen könnte: Hat der Computer Gefühle, hat er Rechte?