Künstliche Intelligenz ermöglicht Abbildung von Gedanken
Ergebnisse des „Gedankenlesens“ mit Hilfe der AI-Verarbeitung von MRT-Daten. Die ursprüngliche Bildvorgabe sehen sie links (schwarzer Rahmen), die Zwischenschritte in der Mitte und das Endergebnis rechts.
Copyright: Kamitani Lab
Kyoto (Japan) – Die Gedanken sind frei, wer will sie erraten“, fragt ein deutsches Volkslied und stellt weiterhin fest, dass außer dem Denker kein anderer Mensch sie wissen könne. Schon lange forschen Neurologen daran, diese Volksweisheit zu widerlegen und sind um die visuelle, bildhafte Abbildung von Gedanken anhand von Hirnaktivitätsmustern bemüht. Nach ersten hoffnungsvollen früheren Ergebnissen (…GreWi berichtete, s. Links u.) haben japanische Wissenschaftler nun künstliche Intelligenzprogramme (artificial intelligence, AI) zur Interpretation von Hirnscan-Daten hinzugezogen und präsentieren sensationelle Ergebnisse.
Wie das Team um Guohua Shen, Tomoyasu Horikawa, Kei Majima und Yukiyasu Kamitani von der University of Kyoto vorab via BioRxiv.org berichtet, haben sie das AI-Programm mit MRT-Daten der Testpersonen gespeist, um auf diese Weise abzubilden, an was die Versuchsperson zur Zeit der Scans zunächst anhand von Bildvorgaben einfacher geometrischer Motive dachte.
Deep image reconstruction: Visual imagery, GIF version
Left: Imagined images
Right: Images reconstructed from brain activity (being optimized) pic.twitter.com/m9ZwPRFwGD— ‚Yuki‘ Kamitani (@ykamit) 4. Januar 2018
Anhand der MRT-Daten rekonstruierte Abbildungen der visuellen Bildvorgaben in Form von Buchstaben.
Copyright: Kamitani Lab
Während schon diese, an die Resultate früherer Experimente erinnernden Ergebnisse, beeindrucken können, gingen die Forscher in ihrer aktuellen Arbeit mit Hilfe der künstlichen Intelligenz noch einen Schritt weiter und versuchten neben der einfachen geometrischen Abbildung auch weitere Bildebenen wie Farbe und Struktur der Testbilder anhand der MRT-Daten zu erfassen.
[video_player type=“youtube“ youtube_show_title_bar=“Y“ style=“1″ dimensions=“560×315″ width=“560″ height=“315″ align=“center“ margin_top=“0″ margin_bottom=“20″ ipad_color=“black“]aHR0cHM6Ly95b3V0dS5iZS9iN2tWd29OOEN4NA==[/video_player]
„Während unsere früheren Arbeit noch auf der Vorstellung basierte, dass ein Bild eben aus Bildpunkten oder einfachen Formen besteht, wissen wir heute, dass unser Gehirn visuelle Informationen hierarchisch, also auf verschiedenen Ebenen mit verschiedener Komplexität verarbeitet“, erläuterte Kamitani gegenüber CNBC.
www.grenzwissenschaft-aktuell.de
+ HIER können Sie den täglichen kostenlosen GreWi-Newsletter bestellen +
Mit der neuen Methode kann der Computer nun nicht nur binäre Pixel, sondern eben auch die genannten hierarchischen Hirnstrukturen lesen, nachdem er zuvor mit den Daten einer 10-monatigen Studie gefüttert worden war, während derer drei Probanden unterschiedliche Abbildungen (Naturaufnahmen, Buchstaben, geometrische Formen) gezeigt wurden und dabei die entsprechende Hirnaktivität gemessen wurde. Nach diesen Scans rekonstruierte das Computerprogramm dann die während dieser Visualisierung gesammelten Daten und ordnete sie den Bildvorgaben zu (s. f. Grafik).
Weitere Ergebnisse der Gedankenvisualisierungen mit Hilfe von AI.
Copyright: Kamitani Lab
[video_player type=“youtube“ youtube_show_title_bar=“Y“ style=“1″ dimensions=“560×315″ width=“560″ height=“315″ align=“center“ margin_top=“0″ margin_bottom=“20″ ipad_color=“black“]aHR0cHM6Ly95b3V0dS5iZS9qc3AxS2FNLWF2VQ==[/video_player]
Während es in früheren Experimenten lediglich gelungen war, sozusagen in Echtzeit Gesehenes anhand von Gedankenmustern zu „lesen“, gelang den Forschern um Kamitani nun erstmals die visuelle Rekonstruktion auch dann, wenn die Versuchsperson lediglich an eine der Bildvorgaben dachte. Allerdings zeigt das Ergebnis dieser Untersuchungen, dass sich das System angesichts dieser Aufgabe deutlich schwerer mit der Interpretation der Hirnmuster tut, als angesichts direkt vorliegender visueller Bildvorgaben. „Unser Gehirn ist angesichts der Erinnerungsaufgabe weniger aktiv, wie gegenüber einer konkreten Bildvorgabe“, erklärt Kamitani diesen Effekt.
Mögliche zukünftige Anwendungen dieser Technologie sind – etwa im medizinischen-therapeutischen und künstlerischen Bereich ebenso faszinierend wie auf den militärischen und Überwachungsbereich übertragen beängstigend und ethisch sicherlich zumindest fragwürdig.
WEITERE MELDUNGEN ZUM THEMA
Erstmals gesprochene Wörter aus Hirnmustern rekonstruiert 16. Juni 2015
Gedankenlesen: Neurologen identifizieren Erinnerungsmuster 27. Juni 2012
Neurologen machen Gedanken hörbar 1. Februar 2012
Gedankenlesen: Wissenschaftler rekonstruieren zuvor gesehene Filmsequenzen anhand von Hirnaktivitätsmustern 24. September 2011
Experten warnen vor möglichem Missbrauch der Neurowissenschaften durch Militärs, Rechtsschutzorgane 8. Februar 2012
Neurologen machen Gedanken hörbar 1. Februar 2012
Gedankenlesen: Wissenschaftler rekonstruieren zuvor gesehene Filmsequenzen anhand von Hirnaktivitätsmustern 24. September 2011
Computer übersetzt Gedanken in Sprache 6. Januar 2010
Hirnwellen bedienen Computer 9. Dezember 2009
Computer bildet erstmals Gedanken in bewegten Bildern ab 3. November 2009
US-Army entwickelt Maschine zum Gedankenlesen 21. Mai 2009
Gedankenlesen mittels Infrarot-Scans 12. Februar 2009
Mind-Controll-Games – Gedankenmuster steuern neuste Generation von Spielen 19. Januar 2009
Neurologen bilden erstmals Gedanken ab 12. Dezember 2008
Forscher lesen fremde Gedanken 6. März 2008
© grenzwissenschaft-aktuell.de