Zamierzam zrobić w C# w oparciu o Windows Forms aplikację Klient-Serwer działającą na zasadzie krótkofalówki. Do obsługi mikrofonu wykorzystałem NAudio. Na tę chwilę udało mi się zrobić aplikację umożliwiającą przeprowadzenie przez sieć rozmowy głosowej między dwoma komputerami oraz komunikator w oparciu o serwer i WebSocket, gdzie wielu użytkowników przesyła tę samą wiadomość do wielu użytkowników w tym samym czasie. Niestety nie udało mi się tych dwóch połączyć w jedno. Czy da się przesyłać strumień audio prze WebSocket? Chcę osiągnąć rozwiązanie działające w taki sposób, że jak jeden użytkownik mówi coś do mikrofonu, to wszyscy, pozostali go słyszą w prawie rzeczywistym czasie.
Edycja.
Widzę, że SignalR będzie moim przyjacielem przy tym zadaniu.