Я играю с AVAudioFile и AVAudioPlayerNode.
Я реализовал собственный протокол потоковой передачи, который принимает звуковые фрагменты и обрабатывает всю часть буферизации, однако я не смог воспроизвести первый фрагмент без использования файловой системы (в настоящее время я не хочу использовать FS).
Это: он отлично работает, когда я записываю данные во временный файл и загружаю его с помощью AVAudioFile
(затем я инициализирую AVAudioBuffer
и использую AVAudioFile.readIntoBuffer
&, наконец, AVAudioPlayerNode.scheduleBuffer
). Но я не могу загрузить буфер напрямую из первого фрагмента (NSData).
Должен ли я реализовать собственный протокол NSURLProtocol и попытаться инициализировать AVAudioFile из настраиваемого NSURL?
func play( data: NSData ) {
var audioFile: AVAudioFile
var audioBuffer: AVAudioPCMBuffer
// writing the data
let destPath = NSTemporaryDirectory() + "chunk.mp3"
data.writeToFile( destPath, atomically: true )
// initializing the AVAudioFile
audioFile = AVAudioFile( forReading: NSURL(string: destPath)!)
// initializing the AVAudioPCMBuffer
audioBuffer = AVAudioPCMBuffer(PCMFormat: audioFile.processingFormat,
frameCapacity: UInt32(data.length))
audioFile.readIntoBuffer( audioBuffer )
/*
I didn't put any AVAudioPlayerNode/AVAudioEngine in this code to keep it simple and describe the situation,
anyway this works fine when everything's properly initialized:
*/
player.scheduleBuffer( audioBuffer, completionHandler: nil )
}