Die Spracherkennung mit Hilfe eines neuronalen Faltungsnetzwerks wird verwendet, um die Wörter zu erkennen, sie zu digitalisieren und den Ton zu analysieren. Es trainiert ein Deep-Learning-Modell, das das Vorhandensein von Sprachbefehlen im Audio erkennt und mit MATLAB implementiert wird. Es verwendet ein neuronales Faltungsnetzwerk, um ein Modell zu trainieren. Das Modell wurde für Befehle und Hintergrundgeräusche trainiert. Das trainierte Modell erhielt beim Testen der Daten eine Genauigkeit von 96,34 %. Definieren Sie den Pegel für die Audioverarbeitung und den Pegel der Erkennung in Hz und bauen Sie einen Audio-Interface-Viewer, der Audio vom Mikrofon interpretieren kann. Wenn wir Befehle sprechen, erkennt und visualisiert es diese, und wenn wir andere als Befehle sprechen, zeigt es unbekannt an. Wenn wir nichts sprechen, werden Hintergrundgeräusche erkannt.