25. Oktober 2017
Posted by aisolab
01

Im vergangenen Jahr war AlphaGo das erste Programm, das einen Weltmeister im Go-Spiel besiegte. AlphaGo wertete Positionen aus und selektierte Bewegungen mit Hilfe von tiefen neuronalen Netzwerken. Diese neuronalen Netze wurden durch das Lernen von ungefähr 1000 historischen Partien von Go-Meistern trainiert. Hierauf folgte eine Lernphase, in der der Rechner 1 Millionen mal gegen sich selber spielte.


Abbildung 1: Selbstspielendes Verstärkungslernen in AlphaGo Zero.

Googles Deep Mind Tean hat nun ein verbessertes neues System, Alpha Go Zero, vorgestellt, das dem „alten“ um Längen überlegen ist.  Neben Änderungen im Algorithmus und der Netz-Architektur ist vor allem erstaunlich, dass dieses Netz ohne die Hinzunahme von existierenden „menschlichen“ Partien trainiert wurde.

Abbildung 2: MCTS in AlphaGo Zero

Die Ergebnisse von Alphago Zero zeigen, dass ein reiner Ansatz über Reinforcement-Learning auch in den schwierigsten Bereichen durchaus erfolgreich ist, wobei sich die reine Trainingszeit gegenüber dem alten Alphago nicht signifikant erhöht hat.

Ergebnis:

Training ohne Experten-Know-How : Training auf Basis von menschlichem Wissen = 100:0

23. Oktober 2017
Posted by aisolab
02

Zur Beschleunigung der Alzheimer Diagnose entwickelten Forscher der Universität Bari in Italien eine künstliche Intelligenz, um strukturelle Veränderungen im Gehirn zu erkennen, die durch die-Krankheit verursacht wurden. Zunächst trainierten sie den Algorithmus mit 67 MRT-Scans (Magnetresonanztomographie), von 38 von Menschen mit Alzheimer und von 29 gesunden Kontrollpersonen. Die Scans stammen aus der Datenbank der Alzheimer Disease Neuroimaging Initiative der Universität von Southern California in Los Angeles.

Die Wissenschaftler haben einen ausgeklügelten Algorithmus entwickelt, der die MRT-Scans analysiert und die Veränderungen im Gehirn mit einer Genauigkeit von mehr als 80 Prozent registriert.

Eine Heilung gibt es zur Zeit bei Alzheimer  nicht, aber eine frühe Diagnose bedeutet, dass die Patienten schneller behandelt werden. Ärzte verwenden bereits seit einiger Zeit MRT-Scans, um nach Veränderungen im Gehirn zu suchen, die für Alzheimer charakteristisch sind, aber die Informatiker sind überzeugt, dass das trainierte neuronale Netz die Diagnosen unterstützen kann, sogar bevor Unterschiede direkt sichtbar werden. Nach Aussage der Wissenschaftler kann diese Innovation innerhalb von zehn Jahren zur Vorbeugung von Alzheimer und anderen Krankheiten eingesetzt werden.

Quelle: https://arxiv.org/pdf/1709.02369v1.pdf

19. Oktober 2017
Posted by aisolab
03

Das AICamp in Frankfurt folgt der Tradition der seit 2009 stattfindenden Cloudcamps und bietet im „Unkonferenz-Format“ Vorträge und Diskussionen im OpenSpace.

Das erste Event findet am 25.10.2017 in der Frankfurt University of Applied Science statt. Hier gibt es weitere Infos und Anmeldemöglichkeiten.

Ich freue mich darüber die "7 Herausforderungen bei AI Projekten" präsentieren zu dürfen und bin gespannt auf die anschliessenden Diskussionen.

Jörg Bienert

 

18. Oktober 2017
Posted by aisolab
04

Ein Team von Wissenschaftlern der Universität New York hat eine neue skalierbare, sliding-Window Lösung gezeigt, die für die Klassifizierung, Erkennung und Lokalisierung von Bildern genutzt werden kann. Im Test mit ILSVRC-Datensätzen erzielte dieses Verfahren im Vergleich mit anderen Algorithmen Platz 1 in der Erkennung und Lokalisierung sowie den 4. Platz in der Erkennung von Bildern.Quelle: https://arxiv.org/pdf/1312.6229.pdf

Ein weiterer wichtiger Aspekt in dieser Studie behandelt die Frage, wie ConvNets effektiv für solche Erkennungs- und Lokalisierungsaufgaben eingesetzt werden können, die nie vorher nicht erkannt wurden. Das Team um Pierre Sermanet und AI-Ikone Yann LeCun, ist daher das erste, das klärt, wie dies in Bezug auf ImageNet möglich sein könnte. Die vorgeschlagene Architektur enthält wesentliche Änderungen am der Struktur des neuronalen Netzes. Zusätzlich wird anhand dieses Ansatzes gezeigt, wie verschiedene Aufgaben mit einem gemeinsamen Netzwerk gleichzeitig erlernt werden können

09. Oktober 2017
Posted by aisolab
05

Der Begriff künstliche Intelligenz (englisch: artificial intelligence, kurz A.I.) bezeichnet die Untersuchung und das Design intelligenter Verhaltensweisen von Maschinen. In seiner modernen Form entstand das Feld in den Fünfzigerjahren. In dieser frühen Phase herrschte – wie zur selben Zeit auch in anderen technologischen Bereichen – ein erheblicher Optimismus, dessen Versprechen aber in den folgenden Jahrzehnten nicht gehalten werden konnten. Abgesehen von grundsätzlichen Problemen wie der Fragen, was genau eigentlich Intelligenz ist und wie sie sich erkennen lässt, blieben konkrete Erfolge beim Entwurf glaubhaft intelligenter Systeme aus.

Kennzeichnend für diese neu entstandene Skepsis ist die wissenschaftliche Debatte, die sich rund um die Frage entwickelte, wie sich Intelligenz von Maschinen überhaupt nachweisen lasse. Bereits 1950 hatte Alan Turing den nach ihm benannten Turing Test vorgeschlagen. Bei diesem Test kommuniziert eine Testperson über einen Fernschreiber (Computerterminals gab es zu Turings Zeiten noch nicht) mit einem Gegenüber, von dem sie nicht weiß, ob es ein Computer oder ein Mensch ist. Wenn der Gesprächspartner ein Computer ist und die Testperson ihn dennoch als Mensch identifiziert, wäre dies, so Turing, der Beweis für die Intelligenz der Maschine.

Die Methode des Turing Tests wurde im weiteren Verlauf der Debatte mehrfach kritisiert. In den Sechzigerjahren schuf Joseph Weizenbaum das Programm ELIZA, das nach heutigen Maßstäben recht einfach strukturiert war und einen Gesprächspartner in verschiedenen Rollen simulieren konnte. Zu Weizenbaums eigener Verblüffung gelang es ELIZA – vor allem in ihrer Rolle als Psychotherapeut – immer wieder, ihre menschlichen Gesprächspartner zu „täuschen“. Der pseudo-therapeutische Kontext legte allerdings auch nahe, dass es sich hierbei zumindest zum Teil auch um Projektion auf menschlicher Seite handelte: Die Testpersonen interpretierten mehr in die Äußerungen von ELIZA hinein, als wirklich zu lesen war.

 

 

Auch von philosophischer Seite gab es Einwände: 1980 entwarf John Searle das Chinese room argument. Bei diesem Gedankenexperiment befindet sich ein Mensch ohne Kenntnis der chinesischen Sprache im Kontext eines Turing Tests in einem Raum, ausgestattet mit allen erdenklichen Büchern und Ressourcen zur chinesischen Sprache und Kultur. Eine andere Person reicht diesem Menschen nun Fragen auf Chinesisch ein und erhält Antworten auf Chinesisch zurück. Searles Argument ist nun, dass der Mensch im chinesischen Zimmer Fragen lesen und beantworten kann, ohne auch nur ein Wort Chinesisch zu „verstehen“. Er ist damit in derselben Situation wie ein Computer, der vom menschlichen Nutzer Anfragen erhält und beantwortet (auf Chinesisch oder nicht). Die Maschine „versteht“ nicht, was vor sich geht, sie arbeitet lediglich auf Basis syntaktischer Regeln ohne Einblick in die Bedeutung ihres Inhaltes. Natürlich lassen sich gegen Searles Gedankenexperiment linguistische und sinologische Einwände erheben, aber es wirft eine sehr grundsätzliche Frage auf: Sind Intelligenz und Kommunikation reine Symbolverarbeitung auf syntaktischer Basis, oder gibt es so etwas wie eine tiefere semantische Ebene von Inhalt und Bedeutung?

Vor derart grundsätzliche Probleme gestellt, begannen sich Forschung und Entwicklung im Bereich künstlicher Intelligenz in zwei Hauptstränge aufzuteilen: Vorerst im Hintergrund blieb der Bereich der Artificial general intelligence, also der Entwurf von Maschinen, die sich aller erdenklichen Aufgaben mit intelligenten Methoden annehmen können. Verwandt, aber utopischer ist die strong A.I., die den exakten Nachbau menschlicher Intelligenz auf maschineller Basis anstrebt. Entscheidend ist hierbei, dass ein solcher Nachbau dem Vorbild gleichgesetzt wäre – die Simulation wäre dann mit dem Original identisch.

Wesentlich erfolgreicher operiert seit Längerem das Feld der narrow A.I., auch weak A.I. oder applied A.I. Hier wird maschinelle Intelligenz nur in eingeschränkten und spezialisierten Gebieten betrachtet. Beispiele hierfür sind:

  • Problemlösungsstrategien
  • Data-Mining
  • Maschinelles Lernen
  • Robotik
  • Spracherkennung
  • Schließen und Entscheiden auf der Basis unsicherer oder unscharfer Information
  • Sehen und Mustererkennung

Viele dieser Gebiete haben in den letzten Jahrzehnten große Fortschritte erzielt. Suchmaschinen beherrschen Data-Mining und unscharfe Suchstrategien, mobile Assistenten in Smartphones erkennen das gesprochene Wort ihrer Benutzer fast fehlerfrei und greifen ihrerseits nahtlos auf Suchmaschinen zurück. Die Robotik hat sich zu einem Teilgebiet der künstlichen Intelligenz gemausert unter der Annahme, dass fundiertes Weltwissen als Grundlage von intelligentem Denken und Handeln nur durch physischen Kontakt mit der Wirklichkeit zustande kommen kann.

Die künstliche Intelligenz hat also einen weiten Weg zurückgelegt. Zwar kommuniziert man mit mobile Assistenten heute wie mit einem Menschen, aber die grundsätzlichen Fragen zur Intelligenz und zur Unterscheidung von Original und Simulation, syntaktischer Symbolverarbeitung und semantischem Verständnis, sind nach wie vor offen.

05. Oktober 2017
Posted by aisolab
06

Während neuronale Netze derzeit in der Regel als Softwareimplementierungen auf klassichen CPU oder GPU Architekturen ablaufen, geht Intel mit der neuesten Entwicklung einen Schritt weiter und stellt einen „Neuromorphic“ Chip vor.

Der Loihi-Chip hat 1.024 künstliche Neuronen oder 130.000 simulierte Neuronen mit 130 Millionen möglichen synaptischen Verbindungen. Das entspricht ungefähr der Komplexität eines Hummers, ist aber weit entfernt von den 80 Milliarden Neuronen eines menschlichen Gehirns. Der Lernprozess erfolgt direkt auf dem Chip, der damit bis zu 1.000 fach schneller sein soll als herkömmliche prozessorgesteuerte Verfahren.

Für die praktische Anwendung ist die Entwicklung von entsprechenden Algorithmen erforderlich. Hierfür wird der Chip Anfang 2018 zunächst an Universitäten und Forschungseinrichtungen ausgeliefert.

01. Oktober 2017
Posted by aisolab
07

Google hat eine neues Open Source Tool Names „Facets“ zu Visualisierung von Datensets für Machine Learning veröffentlicht. (https://research.googleblog.com/2017/07/facets-open-source-visualization-tool.html)

Mit diesem sollen Nutzer ein schnelles Verständnis für die Verteilungen im Datensatz bekommen. Das Tool ist in Polymer und Rypescript erstellt und unterstützt die Einbettung in Jupyter Notebooks und auf Webseiten. Wir von der aiso-lab untersuchen derzeit, ob sich die Technology auch zur Visualisierung innerhalb einiger unserer Produkte anbietet.

Quelle: Google

30. September 2017
Posted by aisolab
08

Das Team der Network Security Lab der University of Washington hat eine vermeintliche Schwäche von Deep-Neural-Networks entdeckt (https://arxiv.org/pdf/1703.06857v1.pdf). DNN scheinen Probleme damit zu haben negative Bilder zu identifizieren.


Wenn das Netzwerk darauf trainiert wurde, die drei in weiß zu erkennen, lernte es nicht auch eine schwarze drei zu erkennen. Die Forscher sehen hier eine Schwäche in der Fähigkeit der DNN zu generalisieren. Eine einfache Lösung für dieses Problem wäre es, die negativ Beispiele für das Training automatisiert zu erstellen.

Außerdem stellt sich die Frage, in wie weit eine Generalisierung des Netzwerkes überhaupt gewünscht ist. Bei farbigen Bildern sollte das Netzwerk die Farbinformation nicht ignorieren. Das Netzwerk sollte eine allgemeine Betrachtung z.B. der Farbe Rot erlernen, aber trotzdem in der Lage sein Rot und Grün zu unterscheiden. Hier zeigt sich wie wichtig die sorgfältige Auswahl des Trainingssetz und der Lernfunktion sind um das Netz korrekt auf die eigenen Bedürfnisse zu trainieren.

28. September 2017
Posted by aisolab
09

Yoshua Bengio, einer der weltweit führenden AI-Professoren von der Université de Montréal hat in seiner aktuellsten Forschungs-Arbeit eine Verbindung zwischen Deep Learning und dem Konzept des Bewusstseins hergestellt. https://arxiv.org/pdf/1709.08568.pdf

Bengio ließ sich von der Überlegung, des „Consciousness Prior“ (in etwa „vorheriges Bewusstsein“ ) inspirieren. Durch die Kombination einiger weniger Konzepte wird ein bewusster Gedanke gebildet. Das Bewusstsein ist geprägt durch die persönliche Wahrnehmung zu einem bestimmten Zeitpunkt.

 

Seine Idee ist, dass die von einem Recurrent Neural Network (RNN) erzeugten „Zwischenergebnisse“ sowohl für die Erklärung der Vergangenheit als auch für die Planung der Zukunft genutzt werden können. Das System handelt daher nicht direkt auf Basis von Eingangssignalen, wie Bildern oder Texten, sondern steuert das „Bewusstsein“ aus den hieraus abstrahierten Informationen.

Der Consciousness Prior könnte dafür genutzt werden um die Informationen innerhalb trainierten neuronalen Netzwerkes wieder in natürliche Sprache oder in klassische AI-Verfahren mit Regeln und Fakten zu übersetzen. Eine Implementierung dieses Konzepts wird in dem Dokument nicht vorgestellt, jedoch schlägt Bengio vor, den Ansatz in reinforcement learning Systeme zu integrieren..

Bengios Überlegungen zeigen neue Wege für AI auf.  Die Zeit wird Zeigen ob es sicher hierbei um eine revolutionäre Idee handelt, oder nur um ein „visonäres“ Gedankenspiel.

 

Laden Sie sich jetzt das aiso-lab Artificial Intelligence Poster kostenlos als PDF herunter.

Hier kostenlos herunterladen

 

25. September 2017
Posted by aisolab
10

Neue Imagenet Ergebnisse sind veröffentlicht. Ein Team aus Beijing stellt einen neuen top-5 Klassifizierungsrecord mit einer Fehler-Rate von 2,25 % auf. Die großen Firmen wie Google, Microsoft und Facebook habe in diesem wie auch schon im letzten Jahr nicht mehr teilgenommen.  

 

http://image-net.org/challenges/LSVRC/2017/results