Witam.
Mam pewien kłopot z tym działaniem algorytmu, wyjaśniając, chodzi o porównywanie sygnałów mowy, o różnych długościach, mianowicie mam na porównaniu takie sygnały.
-Auto ( czas mówienia ok 5s)
-Piwo ( czas mówienia ok 5s)
-Auto ( czas mówienia ok 15s)

Częstotliwości są takie same dla każdego nagranego sygnału i problem w tym, że nie mam pojęcia jak znormalizować długości sygnałów, aby nie stracić cennych informacji, Porównywanie odbywa się na podstawie cech MFCC , co bardzo zmniejszyło podawane wektory, ale nadal problemem jest, różnica długości, bo wg algorytmu, bardziej podobne są słowa, Auto i Piwo powiedziane w ciągu 5 sek niż, dwa Auta, no a wiadomo, że Auto i Piwo nigdy nie powinny iść w parze :D. Czy ktoś kiedyś spotkał się z takim problem, albo wie jak to rozwiązać?