Studienarbeit aus dem Jahr 2007 im Fachbereich Informatik - Theoretische Informatik, Note: 2, Hochschule Zittau/Görlitz; Standort Zittau, Veranstaltung: Algorithmen und Komplexität, Sprache: Deutsch, Abstract: Es ist mehrfach festgestellt worden, dass schnellere Rechner nur einen geringen Einfluss auf die Aufwandsordnung haben, d.h. sie leisten nur einen begrenzten Beitrag zur schnelleren/effizienteren Verarbeitung eines Verfahrens. Die einzige Lösung besteht in dem Suchen und Finden immer besserer und schnellerer Algorithmen zur Lösung konkreter Probleme. Eine Kategorie von immer besseren Berechnungsverfahren sind die Probabilistischen Algorithmen. Diese Algorithmen verwenden Zufallsbits um ihren Ablauf zu steuern, was soviel bedeutet, dass sie im Laufe der Berechnung, also während der Laufzeit des Algorithmuses, Zufallszahlen benutzen. Diese Algorithmen haben mehrere Vorteile gegenüber ihren deterministischen Vettern. Sie sind in den meisten Fällen - schneller (bezüglich Laufzeit); - benötigen weniger Speicher; - sind einfacher zu verstehen und damit ...; - ... einfacher zu implementieren als die schnellsten deterministischen Algorithmen für das selbe Problem. Der Nachteil pobabilistischer Algorithmen ist, dass sie zufällig auch worst-case-Entscheidungen treffen können. Ebenfalls nachteilig ist die Tatsache, dass diese Algorithmen falsche Aussagen produzieren (Monte Carlo-Algorithmen) können oder erst gar nicht terminieren, weil eine ungünstige Zufallszahlenauswahl so getroffen wurde, dass die Berechnung in eine Sackgasse führt (Las Vegas-Algorithmus).
Dieser Download kann aus rechtlichen Gründen nur mit Rechnungsadresse in A, B, BG, CY, CZ, D, DK, EW, E, FIN, F, GR, HR, H, IRL, I, LT, L, LR, M, NL, PL, P, R, S, SLO, SK ausgeliefert werden.