Wie man die Prinzipien maschinellen Lernens erweitern und verbessern kann

Christoph Lampert, Professor am Institute of Science and Technology (IST) Austria in Klosterneuburg: “Wir stellen beispielsweise die Frage: Wie kann maschinelles Lernen davon profitieren, dass mehrere Dinge gleichzeitig trainiert werden? Oder wie kann ein Computer inkrementell – also kontinuierlich über die Zeit – neue Dinge lernen, ohne alte, schon gelernte zu vergessen? Diese Fähigkeiten haben aktuelle Modelle nicht. Wenn ein Computer trainiert wird, Katzenfotos im Internet zu finden, erinnert er sich nicht daran, dass er davor nach Hunden gesucht hat. Er fängt jedes Mal bei null an. Im Vergleich zum menschlichen Lernen wirkt das unnatürlich. Jeder Mensch nutzt beim Lernen das, was er früher gelernt hat, als Grundlage. Dieses Prinzip auf das maschinelle Lernen zu übertragen ist eine unserer Herausforderungen. Wenn meine kleine Tochter im Zoo lernt, was ein Zebra ist, benötigt sie nur ein Bild, um zu wissen, wie dieses Tier aussieht. Der Computer benötigt im Moment tausende Bilder von Zebras. Er hat völlig vergessen, was er sonst schon über Tiere gelernt hat. (…) Bisher braucht der Computer vielleicht 1000 Bilder eines Zebras, um gut zu wissen, wie dieses Tier aussieht. Mit unseren Techniken soll diese Zahl reduziert werden. Er braucht dann vielleicht nur noch 100 oder zehn oder drei. Den Zeitpunkt, zu dem wir sagen “Wir sind fertig” wird es nicht geben. Aber irgendwann wird man sagen: Es ist gut genug für die momentanen Umstände.”

Quelle

https://www.derstandard.at/story/2000120023879/mathematiker-wie-kann-ein-computer-lernen-ohne-zu-vergessen (20-09-22)