Diese Forschung konzentrierte sich hauptsächlich auf die geschaffene Schnittstelle zwischen den Visionen eines Objekts in der Umgebung für eine Sehbehinderung. Die geschaffene Schnittstelle mit echten visionären Fähigkeiten nutzte den Workflow der Objekterkennung. Fügte auch das Garbed Object Protocol für diese Schnittstelle hinzu. Durch die Verwendung von zwei kollaborierten Arbeitsabläufen wurde eine Lösung für Echtzeit-Probleme der Sehbehinderung geschaffen. Jeder Teil der Schnittstelle konvertierte benutzerfreundliche Feedback-Ausgaben. Jeder Abschnitt der Objekterkennung identifizierte das verwendete Modell wasfaster_rcnn_inception_v2_cocc _2018_01_28 und es wurde bereits ein Modell von Microsoft trainiert. Für ein definiertes Objekt außerhalb der Umgebung verwendete Text-zu-Sprache-Konvertierungsprogramm in ein Coco-Modell, das für das 3D-Monoton-Protokoll übersetzt wurde, und es erzeugte eine frequenzvariable 3D-Tonauswahl für den Benutzer, um das Objekt um die Objekte herum zu untertreiben. Der Vater unterschätzte dieses 3D-Monoschallprotokoll, indem er digitales Format in analoges Format umwandelte und Pulse mit Modulationstechnik verwendete. Jedes Signal wurde durch den digitalen Generator für Protokollvariablen validiert, um festzustellen, welches Seitenobjekt auf dem System erkannt wurde.