In vielen Bereichen der Wissenschaft und Wirtschaft werden Algorithmen verwendet, die sehr aufwändig und dadurch sehr rechenintensiv sind. Oft übersteigt der Laufzeitbedarf der Berechnungen die Leistungsfähigkeit von einzelnen Prozessoren, sodass Ergebnisse nicht in angemessener Zeit geliefert werden können. Daher werden diese auf vielen Prozessoren parallel durchgeführt. Dabei ist es wichtig, dass Inkonsistenzen vermieden werden und die für einen Berechnungsschritt notwendigen Daten auf dem jeweiligen Prozessor verfügbar sind. Im Rahmen dieser Arbeit wurde ein Framework zur Verteilung und Synchronisation von Objektgraphen entwickelt. Änderungen an den Daten werden durch Änderungsereignisse zu anderen Prozessen kommuniziert und transaktionssicher verarbeitet. Außerdem organisieren sich die Prozesse, zwischen denen die Daten synchronisiert werden sollen, dezentral unter Verwendung von Peer-to-Peer Technologie und nicht auf Basis von zentralen Servern oder Datenbanken.