News: Neues KI-Modell versteht Informationen aus verschiedenen Quellen

Stand:
Neuer Algorithmus soll geschriebene, gesprochene und visuelle Aufgaben lösen können
Ein Roboter-Kind sitz auf einer Bank und liest ein Buch
Off

Algorithmen können heute bereits viele Dinge: Sie erkennen Katzen oder Fußgänger auf Fotos. Sie lesen geschriebene Sprache aus und verstehen, wenn wir mit ihnen sprechen. Allerdings brauchte man bislang für jede dieser Aufgaben einen eigenen Algorithmus.

Wie das Online-Magazin Heise berichtet, hat Meta AI (früher Facebook AI Research) nun einen Algorithmus vorgestellt, der sowohl visuelle als auch geschriebene als auch gesprochene Informationen verarbeiten kann. 1, 2 Unterschiedliche Unternehmen in verschiedenen Ländern arbeiten aktuell daran, KI-Modelle zu entwickeln, die multimodalen Input erfassen können.3

Das Ziel ist es, Maschinen in die Nähe der menschlichen Weltwahrnehmung zu rücken. Wenn Computer Informationen aus verschiedenen Quellen selbst kategorisieren, analysieren und in Beziehung setzen können, nähert sich ihre Lernfähigkeit an die des Menschen an.4
 


1 https://www.heise.de/news/Machine-Learning-Auf-der-Suche-nach-einem-Alleskoenner-Algorithmus-6287153.html

2 https://www.heise.de/hintergrund/Bilder-Texte-und-Sprache-erkennen-Facebook-will-KI-das-Multitasking-beibringen-6334378.html

3 https://www.heise.de/news/Machine-Learning-Auf-der-Suche-nach-einem-Alleskoenner-Algorithmus-6287153.html

4 https://www.heise.de/news/Machine-Learning-Auf-der-Suche-nach-einem-Alleskoenner-Algorithmus-6287153.html