Scroll Top

Wie Künstliche Intelligenz lernt, sich selbst zu kreieren

Optimierung Künstliche Intelligenz

Eigenständige Optimierungsfähigkeit einer künstlichen Intelligenz

Wird der -für viele- unangenehme Beigeschmack einer fortschreitenden “technologischen Weltherrschaft” außer Acht gelassen, offenbart das Zeitalter der Digitalisierung mit seinen vielschichtigen Funktionalitäten auch ebenso zahlreiche Vorteile. Künstliche Intelligenz beschreibt die eigenständige Fähigkeit des Systems, entsprechende Lösungsansätze für bestehende Problemstellungen zu generieren. Eine Analyse und Auswertung verschiedenster Datensätze wird realisiert, eine Erkennung von Tieren wird ebenso ermöglicht wie auch eine Durchführung anstehender Wartungsplanungen – dank KI geschieht all das komplett automatisch.

Mit dem heutigen Tag sind bereits diverse Werkzeuge am IT-Markt vorhanden, durch welche die Fähigkeit des eigenständigen Erlernens einer künstlichen Intelligenz positiv beeinflusst und simplifiziert werden. Aufgrund der sogenannten AutoML-Funktion, welche für automatisches maschinelles Lernen steht, wird auch ohne einschlägige Programmierkenntnisse eine fortlaufende Optimierung der KI ermöglicht. Dieser vollständig automatisierte Prozess umfasst neben einer primären Sortierung von Daten sowie der darauffolgenden Auswahl und Konfiguration eines geeigneten KI-Modells auch ein laufendes Training.
Dennoch werden für das ausgewählte Modell stets nur vertraute Architekturen angewandt, welche für die zugrundeliegenden Aufgaben- bzw. Problemstellung auch entsprechend geeignet sind. Der Wunsch nach einer künftigen Anwendungsmöglichkeit von innovativen Architekturen ist aufgrund der damit verbundenen Erwartungshaltungen an präzisere, zügigere und energiesparendere Algorithmen dennoch sehr präsent.

Eigenständige Netzbildung einer künstlichen Intelligenz

Da die Menschheit bei der Entwicklung verbesserter Architekturen immer häufiger an die Grenzen ihrer Möglichkeiten stößt, soll ferner die künstliche Intelligenz an dieser Stelle anknüpfen. Derzeit arbeiten Forscher an der Entwicklung von Systemen, welche zur selbstständigen Bildung ihrer erforderlichen neuronalen Netze fähig sind.
Diese Fähigkeit, die notwendigen Verknüpfungen automatisch zu erkennen, wird fachsprachlich als neuronales Architekturlernen bezeichnen. Innerhalb dieses Prozesses sind die Neuronen im Rahmen des Trainings in der Lage, ihre Verknüpfungen auch außerhalb der aus dem Deep Learning bereits bekannten mehrschichtigen Architektursysteme eigenständig zu bilden.
Dadurch wird ein enormer Anstieg an möglichen Netzwerkarchitekturen bewirkt, der ein erhebliches Potenzial für unbekannte, leistungsfähigere Architekturen mit sich bringt. Folglich wird vom System eigenständig ein Netzwerk kreiert, das optimal auf die entsprechende Aufgabenstellung ausgelegt ist.

Forscher arbeiten an der Entwicklung der leistungsstärksten Bilderkennungssoftware

Obgleich diese Disziplin der Forschung noch in ihren Kinderschuhen steckt und derzeit kaum wissenschaftliche Ausführungen zu diesem Thema veröffentlicht wurden, waren Forscher mit dieser Methode bereits in der Lage, eine künstliche Intelligenz mit der bislang effizientesten Bilderkennungsfunktion zu erschaffen.
Das Training des Systems wurde mithilfe des ImageNet-Datensatzes durchgeführt. Dabei handelt es sich um eine Ansammlung von rund 14 Millionen Bildern, welche seit nunmehr 10 Jahren die häufigste Trainings- und Leistungsbewertungsgrundlage von Bilderkennungs-KIs darstellt.

Als Basis für die künstliche Intelligenz verwendeten Forscher die sogenannte MobileNetV1 Architektur, welche im Verlauf des Trainings eigenständig durch das System modifiziert wurde und eine entsprechende Verknüpfung der Neuronen untereinander erfolgte.
Im Anschluss wurde durch die Forscher der Genauigkeitsgrad der Bilderkennung ihrer KI mit jenem der herkömmlichen Architekturen gegenübergestellt. Daraus resultierte die Erkenntnis einer Überlegenheit ihrer künstlichen Intelligenz gegenüber den konkurrierenden Architekturen. Durch ihre eigenständige Fähigkeit zur Modifizierung konnte ein um rund 20 Prozent besseres Ergebnis als bei der zugrundeliegenden MobileNetV1 Architektur erreicht werden.

Flaschenhals Hardware

Aufgrund der eindeutigen Testergebnisse gehen die Forscher davon aus, dass ihre Methode im Grunde bei jeder künstlichen Intelligenz zu einer Verbesserung beitragen kann. Da die Verknüpfung von Architekturbildung und Trainingsprozess jedoch eine enorme Rechenleistung voraussetzt, erhoffen sich die Wissenschaftler weitere Fortschritte im Bereich spezialisierter Hardware für künstliche Intelligenz.
Diese bilden die Voraussetzung zur weiteren Potenzialentfaltung des neuronalen Architekturlernprozesses. Aufgrund der Tatsache, dass sich die Methode hervorragend zur Erschaffung einer optimalen Netzwerkarchitektur für spezielle Aufgabenstellungen eignet, ist eine weitere Entwicklung und Optimierung des Prozesses von besonderer Relevanz. Dadurch könnte insbesondere die Nutzung von hochpräzisen und recheneffizienten KIs außerhalb der Cloud-Supercomputer gewährleistet werden.

Verwandte Beiträge

Hinterlasse einen Kommentar

Sie müssen eingeloggt sein , um einen Kommentar schreiben zu können.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.