29,99 €
inkl. MwSt.
Sofort per Download lieferbar
payback
0 °P sammeln
  • Format: PDF

Diplomarbeit aus dem Jahr 2011 im Fachbereich Informatik - Bioinformatik, Note: 2,0, Universität Münster (Informatik), Sprache: Deutsch, Abstract: Das menschliche Gehirn ist zu faszinierenden Leistungen fähig. In manchen Bereichen ist es jedem Computer überlegen. Zum Beispiel könnte heute kein Computer im Straßenverkehr ein Auto so sicher lenken wie ein Mensch. Andererseits löst ein Computer komplizierte Rechenaufgaben viel schneller als ein menschliches Gehirn. Mit künstlichen neuronalen Netzen versucht die Informatik, das Gehirn zu imitieren, um die Vorzüge beider Systeme zu vereinigen.…mehr

Produktbeschreibung
Diplomarbeit aus dem Jahr 2011 im Fachbereich Informatik - Bioinformatik, Note: 2,0, Universität Münster (Informatik), Sprache: Deutsch, Abstract: Das menschliche Gehirn ist zu faszinierenden Leistungen fähig. In manchen Bereichen ist es jedem Computer überlegen. Zum Beispiel könnte heute kein Computer im Straßenverkehr ein Auto so sicher lenken wie ein Mensch. Andererseits löst ein Computer komplizierte Rechenaufgaben viel schneller als ein menschliches Gehirn. Mit künstlichen neuronalen Netzen versucht die Informatik, das Gehirn zu imitieren, um die Vorzüge beider Systeme zu vereinigen. Künstliche neuronale Netze bestehen aus künstlichen Neuronen, die miteinander zu einem Netz verbunden sind. Dabei können die Verbindungen unterschiedlich stark ausgeprägt sein. Damit ein solches Netz bestimmte Probleme lösen kann, muss es zunächst mit einem Lernverfahren trainiert werden. Dabei werden dem Netz Beispiele in Form von Eingabedaten und den dazugehörigen korrekten Ausgabedaten vorgelegt. Manche Lernverfahren arbeiten auch mit Trainingsdaten, die keine korrekten Ausgabedaten enthalten. Bei den Lernverfahren handelt es ich um eine Minimierung der Fehlerfunktion des künstlichen neuronalen Netzes. Diese suchen ein lokales Minimum der Fehlerfuntkion. Dieses ist nicht optimal, da es nach dem Finden eines lokalen Minimums der Funktion noch kleinere Werte der Fehlerfunktion geben kann. In dieser Arbeit entwickle und implementiere ich ein Lernverfahren für künstliche neuronale Netze, welches ein globales Minimum der Fehlerfuntkion sucht. Als Grundlage benutze ich einen von Harkiolakis entwickelten Algorithmus zur globalen Optimierung eines nicht nichtlinearen Gleichungssystem durch den Flug eines Projektils. [Har08] Mithilfe dieses Verfahrens wurden in bekannten Optimierungsproblemen neue Minima gefunden. Dieses übertrage ich auf ein Lernverfahren für künstliche neuronale Netze mit dem Versuch bessere Netze zu finden als mit den standard Lernverfahren.