Audio Linux: passato, presente, e futuro discussi all’ LPC (1° Parte)

Audio linux: La storia, lo stato attuale ed il futuro dell'audio Linux sono state oggetto di due chiacchierate alla “Linux Plumbers Conference (LPC)”.

Davis: Origini e futuro

Davis ha iniziato a lavorare con linux nel lontano 1994 ed in particolare sull’audio linux nel 1998, per cui, con un’esperienza di circa 10 anni, cerca di fornire una spiegazione sul perché per quanto si faccia, l’audio su linux “succhi” così tanto.

In più ci spiega come ci siano alcune lezioni che vadano imparate dagli altri due sistemi operativi più importanti, Windows e Mac OS X che possono essere utili per migliorare l’audio linux.

Ha sottolineato inoltre che tipo di supporto audio è necessario per linux e in generale per ogni sistema operativo.

Deve essere possibile prendere o inviare i dati audio tramite tutte le interfacce audio cosi come tramite la rete, i dati audio dovrebbero essere condivisi tra le applicazioni e ci dovrebbe essere un approccio unificato ai controlli mixer. Ma la cosa più importante è che il sistema sia facile da capire e da utilizzare.

Un po’ di storia sull'audio Linux

L'audio linux nacque nel 1990 con il driver Creative Soundblaster da cui nacque poi la fondazione per l’Open Sound System (OOS). Ma l’insoddisfazione crescente per tale sistema, portò nel 1998 Jaroslav Kysela ed altri a iniziare il lavoro sulla Advanced Linux Sound Arcuitecture (ALSA).

L’ALSA stessa fu ridisegnata varie volte tra il 1999 ed il 2001 richiedendo il cambio delle applicazioni audio perché non erano più compilabili.

Il sequencere Alsa, un router MIDI su spazio Kernel, fu aggiunto durante questo periodo.
Dalla fine del 2001, ALSA fu adottato come sistema Audio ufficiale al posto di OOS, che comunque non è definitivamente scomparso.

All’inizio di questa decade, la community di sviluppo audio per Linux inizio varie discussioni su come connettere tra loro applicazioni audio, qualcosa che ancora non era supportato da ALSA.
Più o meno nella stesso periodo, Davis iniziò a lavorare sulla workstation di audio digitale Arbour che portò poi alla creazione di Jack, il motore di gestione audio che può essere considerato un “kit di connessione audio” che funziona sulla maggior parte di sistemi operativi ed è pensato più per usi professionali che per utenti desktop.

Da allora, il kernel ha atto grandi passi nel supporto della programmazione realtime, ma molto di questo lavoro non è disponibile per gli utenti essendo generalmente troppo complesso da configurare.
A metà degli anni 2000, Poettering iniziò il lavoro sul server PulseAudio, KDE smise di utilizzare il sound server aRts., GStreamer emerse tra le aaplicazioni per lo streaming audio e così via.

Le applicazioni desktop richiedevano API con un accesso audio "semplce" e furono create cose tipo Phonon e libsydney, ma nel frattempo, JACK era ancora l'unico modo di accedere all'audio Fire wire. Tutto questo portò una grande confusione tra gli utenti audio di Linux secondo Davis.

Audio Linux - Modelli di applicazione

L’hardware audio funzionano in maniera molto semplice. Per registrare (o catturare), c’è un buffercircolare in memoria nel quale scrive l’hardware e dal quale il software legge, il playback è esattamente il contrario, in entrambi i casi lo spazio utente può aggiungere buffering sopra il buffer circolare utilizzato dall’hardware, che è utile per alcuni scopi, ma non per altri.

Repost: 10 Gen 2010

Scarica subito una copia gratis

Scrivi un commento

Seguici anche sul tuo Social Network preferito!

Send this to a friend