Riordinamento completo degli indici. Create della macro ad hoc per la
[gapil.git] / prochand.tex
index 651e14536584e9e1e5289714ea92da1ef8cdc928..9272a20e0bdb429978f21b24de0d56ca4cbbb6fd 100644 (file)
@@ -144,8 +144,8 @@ fig.~\ref{fig:proc_task_struct}.
 \end{figure}
 
 Come accennato in sez.~\ref{sec:intro_unix_struct} è lo
-\textit{scheduler}\index{\textit{scheduler}} che decide quale processo mettere
-in esecuzione; esso viene eseguito ad ogni system call ed ad ogni
+\textit{scheduler}\itindex{scheduler} che decide quale processo mettere in
+esecuzione; esso viene eseguito ad ogni system call ed ad ogni
 interrupt,\footnote{più in una serie di altre occasioni. NDT completare questa
   parte.} (ma può essere anche attivato esplicitamente). Il timer di sistema
 provvede comunque a che esso sia invocato periodicamente, generando un
@@ -157,7 +157,7 @@ Hertz.\footnote{Il valore usuale di questa costante 
   sez.~\ref{sec:sys_unix_time}).}
 %Si ha cioè un interrupt dal timer ogni centesimo di secondo.
 
-Ogni volta che viene eseguito, lo \textit{scheduler}\index{\textit{scheduler}}
+Ogni volta che viene eseguito, lo \textit{scheduler}\itindex{scheduler}
 effettua il calcolo delle priorità dei vari processi attivi (torneremo su
 questo in sez.~\ref{sec:proc_priority}) e stabilisce quale di essi debba
 essere posto in esecuzione fino alla successiva invocazione.
@@ -268,9 +268,8 @@ Il fatto che il \acr{pid} sia un numero univoco per il sistema lo rende un
 candidato per generare ulteriori indicatori associati al processo di cui
 diventa possibile garantire l'unicità: ad esempio in alcune implementazioni la
 funzione \func{tempnam} (si veda sez.~\ref{sec:file_temp_file}) usa il
-\acr{pid} per generare un \index{\textit{pathname}}\textit{pathname} univoco,
-che non potrà essere replicato da un altro processo che usi la stessa
-funzione.
+\acr{pid} per generare un \itindex{pathname}\textit{pathname} univoco, che non
+potrà essere replicato da un altro processo che usi la stessa funzione.
 
 Tutti i processi figli dello stesso processo padre sono detti
 \textit{sibling}, questa è una delle relazioni usate nel \textsl{controllo di
@@ -326,7 +325,7 @@ pertanto padre e figlio vedono variabili diverse.
 Per quanto riguarda la gestione della memoria, in generale il segmento di
 testo, che è identico per i due processi, è condiviso e tenuto in read-only
 per il padre e per i figli. Per gli altri segmenti Linux utilizza la tecnica
-del \textit{copy on write}\index{\textit{copy~on~write}}; questa tecnica
+del \textit{copy on write}\itindex{copy~on~write}; questa tecnica
 comporta che una pagina di memoria viene effettivamente copiata per il nuovo
 processo solo quando ci viene effettuata sopra una scrittura (e si ha quindi
 una reale differenza fra padre e figlio). In questo modo si rende molto più
@@ -442,8 +441,8 @@ Go to next child
 Esaminiamo questo risultato: una prima conclusione che si può trarre è che non
 si può dire quale processo fra il padre ed il figlio venga eseguito per
 primo\footnote{a partire dal kernel 2.5.2-pre10 è stato introdotto il nuovo
-  scheduler\index{\textit{scheduler}} di Ingo Molnar che esegue sempre per
-  primo il figlio; per mantenere la portabilità è opportuno non fare comunque
+  scheduler\itindex{scheduler} di Ingo Molnar che esegue sempre per primo il
+  figlio; per mantenere la portabilità è opportuno non fare comunque
   affidamento su questo comportamento.} dopo la chiamata a \func{fork};
 dall'esempio si può notare infatti come nei primi due cicli sia stato eseguito
 per primo il padre (con la stampa del \acr{pid} del nuovo processo) per poi
@@ -464,9 +463,8 @@ Pertanto non si pu
 istruzioni del codice fra padre e figli, né sull'ordine in cui questi potranno
 essere messi in esecuzione. Se è necessaria una qualche forma di precedenza
 occorrerà provvedere ad espliciti meccanismi di sincronizzazione, pena il
-rischio di incorrere nelle cosiddette 
-\textit{race condition}\index{\textit{race~condition}} 
-(vedi sez.~\ref{sec:proc_race_cond}).
+rischio di incorrere nelle cosiddette \textit{race
+  condition}\itindex{race~condition} (vedi sez.~\ref{sec:proc_race_cond}).
 
 Si noti inoltre che essendo i segmenti di memoria utilizzati dai singoli
 processi completamente separati, le modifiche delle variabili nei processi
@@ -586,7 +584,7 @@ propriet
 comune dopo l'esecuzione di una \func{fork} è la seguente:
 \begin{itemize*}
 \item i file aperti e gli eventuali flag di
-  \textit{close-on-exec}\index{\textit{close-on-exec}} impostati (vedi
+  \textit{close-on-exec}\itindex{close-on-exec} impostati (vedi
   sez.~\ref{sec:proc_exec} e sez.~\ref{sec:file_fcntl});
 \item gli identificatori per il controllo di accesso: l'\textsl{user-ID
     reale}, il \textsl{group-ID reale}, l'\textsl{user-ID effettivo}, il
@@ -639,11 +637,10 @@ padre, che costituiva un inutile appesantimento in tutti quei casi in cui la
 \func{fork} veniva fatta solo per poi eseguire una \func{exec}. La funzione
 venne introdotta in BSD per migliorare le prestazioni.
 
-Dato che Linux supporta il \textit{copy on
-  write}\index{\textit{copy~on~write}} la perdita di prestazioni è
-assolutamente trascurabile, e l'uso di questa funzione (che resta un caso
-speciale della system call \func{\_\_clone}) è deprecato; per questo eviteremo
-di trattarla ulteriormente.
+Dato che Linux supporta il \textit{copy on write}\itindex{copy~on~write} la
+perdita di prestazioni è assolutamente trascurabile, e l'uso di questa
+funzione (che resta un caso speciale della system call \func{\_\_clone}) è
+deprecato; per questo eviteremo di trattarla ulteriormente.
 
 
 \subsection{La conclusione di un processo}
@@ -1189,7 +1186,7 @@ non viene trovato nessun altro file viene finalmente restituito
 
 Le altre quattro funzioni si limitano invece a cercare di eseguire il file
 indicato dall'argomento \param{path}, che viene interpretato come il
-\index{\textit{pathname}}\textit{pathname} del programma.
+\itindex{pathname}\textit{pathname} del programma.
 
 \begin{figure}[htb]
   \centering
@@ -1238,7 +1235,7 @@ speciale 
 sez.~\ref{sec:sig_gen_beha}).
 
 La gestione dei file aperti dipende dal valore che ha il flag di
-\textit{close-on-exec}\index{\textit{close-on-exec}} (vedi anche
+\textit{close-on-exec}\itindex{close-on-exec} (vedi anche
 sez.~\ref{sec:file_fcntl}) per ciascun file descriptor. I file per cui è
 impostato vengono chiusi, tutti gli altri file restano aperti. Questo
 significa che il comportamento predefinito è che i file restano aperti
@@ -1248,9 +1245,8 @@ che imposti il suddetto flag.
 Per le directory, lo standard POSIX.1 richiede che esse vengano chiuse
 attraverso una \func{exec}, in genere questo è fatto dalla funzione
 \func{opendir} (vedi sez.~\ref{sec:file_dir_read}) che effettua da sola
-l'impostazione del flag di
-\textit{close-on-exec}\index{\textit{close-on-exec}} sulle directory che apre,
-in maniera trasparente all'utente.
+l'impostazione del flag di \textit{close-on-exec}\itindex{close-on-exec} sulle
+directory che apre, in maniera trasparente all'utente.
 
 Abbiamo detto che l'\textsl{user-ID reale} ed il \textsl{group-ID reale}
 restano gli stessi all'esecuzione di \func{exec}; lo stesso vale per
@@ -1700,8 +1696,8 @@ corrente.
 Anche queste funzioni sono un'estensione specifica di Linux, e non richiedono
 nessun privilegio. I valori sono restituiti negli argomenti, che vanno
 specificati come puntatori (è un altro esempio di
-\index{\textit{value~result~argument}}\textit{value result argument}). Si noti
-che queste funzioni sono le uniche in grado di leggere gli identificatori del
+\itindex{value~result~argument}\textit{value result argument}). Si noti che
+queste funzioni sono le uniche in grado di leggere gli identificatori del
 gruppo \textit{saved}.
 
 
@@ -1870,7 +1866,7 @@ scrivere codice portabile.
 \label{sec:proc_priority}
 
 In questa sezione tratteremo più approfonditamente i meccanismi con il quale
-lo \textit{scheduler}\index{\textit{scheduler}} assegna la CPU ai vari
+lo \textit{scheduler}\itindex{scheduler} assegna la CPU ai vari
 processi attivi.  In particolare prenderemo in esame i vari meccanismi con cui
 viene gestita l'assegnazione del tempo di CPU, ed illustreremo le varie
 funzioni di gestione.
@@ -1879,6 +1875,7 @@ funzioni di gestione.
 \subsection{I meccanismi di \textit{scheduling}}
 \label{sec:proc_sched}
 
+\itindbeg{scheduler}
 La scelta di un meccanismo che sia in grado di distribuire in maniera efficace
 il tempo di CPU per l'esecuzione dei processi è sempre una questione delicata,
 ed oggetto di numerose ricerche; in generale essa dipende in maniera
@@ -1886,13 +1883,14 @@ essenziale anche dal tipo di utilizzo che deve essere fatto del sistema, per
 cui non esiste un meccanismo che sia valido per tutti gli usi.
 
 La caratteristica specifica di un sistema multitasking come Linux è quella del
-cosiddetto \textit{prehemptive multitasking}: questo significa che al
-contrario di altri sistemi (che usano invece il cosiddetto \textit{cooperative
+cosiddetto \itindex{prehemptive~multitasking}\textit{prehemptive
+  multitasking}: questo significa che al contrario di altri sistemi (che usano
+invece il cosiddetto \itindex{cooperative~multitasking}\textit{cooperative
   multitasking}) non sono i singoli processi, ma il kernel stesso a decidere
 quando la CPU deve essere passata ad un altro processo. Come accennato in
 sez.~\ref{sec:proc_hierarchy} questa scelta viene eseguita da una sezione
-apposita del kernel, lo \textit{scheduler}\index{\textit{scheduler}}, il cui
-scopo è quello di distribuire al meglio il tempo di CPU fra i vari processi.
+apposita del kernel, lo \textit{scheduler}, il cui scopo è quello di
+distribuire al meglio il tempo di CPU fra i vari processi.
 
 La cosa è resa ancora più complicata dal fatto che con le architetture
 multi-processore si deve anche scegliere quale sia la CPU più opportuna da
@@ -2013,32 +2011,30 @@ essere eseguito, e quando un processo potr
 nell'esecuzione.
 
 Il meccanismo usato da Linux è piuttosto semplice,\footnote{in realtà nella
-  serie 2.6.x lo \textit{scheduler} è stato riscritto da zero e può usare
-  diversi algoritmi, selezionabili sia in fase di compilazione, che, nelle
-  versioni più recenti, all'avvio (addirittura è stato ideato un sistema
-  modulare che permette di cambiare lo scheduler al volo, che comunque non è
-  incluso nel kernel ufficiale).} ad ogni processo è assegnata una
-\textit{time-slice}, cioè un intervallo di tempo (letteralmente una fetta) per
-il quale esso deve essere eseguito. Il valore della \textit{time-slice} è
-controllato dalla cosiddetta \textit{nice} (o \textit{niceness}) del processo.
-Essa è contenuta nel campo \var{nice} di \struct{task\_struct}; tutti i
-processi vengono creati con lo stesso valore, ed essa specifica il valore
-della durata iniziale della \textit{time-slice} che viene assegnato ad un
-altro campo della struttura (\var{counter}) quando il processo viene eseguito
-per la prima volta e diminuito progressivamente ad ogni interruzione del
-timer.
-
-Durante la sua esecuzione lo scheduler\index{\textit{scheduler}} scandisce la
-coda dei processi in stato \textit{runnable} associando, in base al valore di
-\var{counter}, un peso ad ogni processo in attesa di esecuzione,\footnote{il
-  calcolo del peso in realtà è un po' più complicato, ad esempio nei sistemi
-  multiprocessore viene favorito un processo eseguito sulla stessa CPU, e a
-  parità del valore di \var{counter} viene favorito chi ha una priorità più
-  elevata.} chi ha il peso più alto verrà posto in esecuzione, ed il
-precedente processo sarà spostato in fondo alla coda.  Dato che ad ogni
-interruzione del timer il valore di \var{counter} del processo corrente viene
-diminuito, questo assicura che anche i processi con priorità più bassa
-verranno messi in esecuzione.
+  serie 2.6.x lo scheduler è stato riscritto da zero e può usare diversi
+  algoritmi, selezionabili sia in fase di compilazione, che, nelle versioni
+  più recenti, all'avvio (addirittura è stato ideato un sistema modulare che
+  permette di cambiare lo scheduler al volo, che comunque non è incluso nel
+  kernel ufficiale).} ad ogni processo è assegnata una \textit{time-slice},
+cioè un intervallo di tempo (letteralmente una fetta) per il quale esso deve
+essere eseguito. Il valore della \textit{time-slice} è controllato dalla
+cosiddetta \textit{nice} (o \textit{niceness}) del processo.  Essa è contenuta
+nel campo \var{nice} di \struct{task\_struct}; tutti i processi vengono creati
+con lo stesso valore, ed essa specifica il valore della durata iniziale della
+\textit{time-slice} che viene assegnato ad un altro campo della struttura
+(\var{counter}) quando il processo viene eseguito per la prima volta e
+diminuito progressivamente ad ogni interruzione del timer.
+
+Durante la sua esecuzione lo scheduler scandisce la coda dei processi in stato
+\textit{runnable} associando, in base al valore di \var{counter}, un peso ad
+ogni processo in attesa di esecuzione,\footnote{il calcolo del peso in realtà
+  è un po' più complicato, ad esempio nei sistemi multiprocessore viene
+  favorito un processo eseguito sulla stessa CPU, e a parità del valore di
+  \var{counter} viene favorito chi ha una priorità più elevata.} chi ha il
+peso più alto verrà posto in esecuzione, ed il precedente processo sarà
+spostato in fondo alla coda.  Dato che ad ogni interruzione del timer il
+valore di \var{counter} del processo corrente viene diminuito, questo assicura
+che anche i processi con priorità più bassa verranno messi in esecuzione.
 
 La priorità di un processo è così controllata attraverso il valore di
 \var{nice}, che stabilisce la durata della \textit{time-slice}; per il
@@ -2167,7 +2163,7 @@ processo qualsiasi sia la sua priorit
   Adeos gestiti dalle code del nano-kernel), in modo da poterli controllare
   direttamente qualora ci sia la necessità di avere un processo con priorità
   più elevata di un \textit{interrupt handler}.} mentre con l'incorrere in un
-page fault\index{\textit{page~fault}} si possono avere ritardi non previsti.
+\textit{page fault}\itindex{page~fault} si possono avere ritardi non previsti.
 Se l'ultimo problema può essere aggirato attraverso l'uso delle funzioni di
 controllo della memoria virtuale (vedi sez.~\ref{sec:proc_mem_lock}), il primo
 non è superabile e può comportare ritardi non prevedibili riguardo ai tempi di
@@ -2182,14 +2178,13 @@ si lavora con processi che usano priorit
 cui si sia assegnata la massima priorità assoluta, in modo da poter essere
 comunque in grado di rientrare nel sistema.
 
-Quando c'è un processo con priorità assoluta lo
-scheduler\index{\textit{scheduler}} lo metterà in esecuzione prima di ogni
-processo normale. In caso di più processi sarà eseguito per primo quello con
-priorità assoluta più alta. Quando ci sono più processi con la stessa priorità
-assoluta questi vengono tenuti in una coda e tocca al kernel decidere quale
-deve essere eseguito.  Il meccanismo con cui vengono gestiti questi processi
-dipende dalla politica di scheduling che si è scelto; lo standard ne prevede
-due:
+Quando c'è un processo con priorità assoluta lo scheduler lo metterà in
+esecuzione prima di ogni processo normale. In caso di più processi sarà
+eseguito per primo quello con priorità assoluta più alta. Quando ci sono più
+processi con la stessa priorità assoluta questi vengono tenuti in una coda e
+tocca al kernel decidere quale deve essere eseguito.  Il meccanismo con cui
+vengono gestiti questi processi dipende dalla politica di scheduling che si è
+scelto; lo standard ne prevede due:
 \begin{basedescript}{\desclabelwidth{1.2cm}\desclabelstyle{\nextlinelabel}}
 \item[\textit{FIFO}] \textit{First In First Out}. Il processo viene eseguito
   fintanto che non cede volontariamente la CPU (con \func{sched\_yield}), si
@@ -2417,13 +2412,13 @@ Infine con il supporto dei sistemi multiprocessore sono state introdotte delle
 funzioni che permettono di controllare in maniera più dettagliata la scelta di
 quale processore utilizzare per eseguire un certo programma. Uno dei problemi
 che si pongono nei sistemi multiprocessore è infatti quello
-dell'\textsl{effetto ping-pong}.\index{\textsl{effetto ping-pong}} Può
-accadere cioè che lo scheduler, quando riavvia un processo precedentemente
-interrotto, scegliendo il primo processore disponibile lo faccia eseguire da
-un processore diverso rispetto a quello su cui era stato eseguito in
-precedenza. Se il processo passa da un processore all'altro in questo modo
-(cosa che avveniva abbastanza di frequente con i kernel della seria 2.4.x) si
-ha l'\textsl{effetto ping-pong}.
+dell'\textsl{effetto ping-pong}.\index{effetto~ping-pong} Può accadere cioè
+che lo scheduler, quando riavvia un processo precedentemente interrotto,
+scegliendo il primo processore disponibile lo faccia eseguire da un processore
+diverso rispetto a quello su cui era stato eseguito in precedenza. Se il
+processo passa da un processore all'altro in questo modo (cosa che avveniva
+abbastanza di frequente con i kernel della seria 2.4.x) si ha
+l'\textsl{effetto ping-pong}.
 
 Questo tipo di comportamento può generare dei seri problemi di prestazioni;
 infatti tutti i processori moderni utilizzano una memoria interna (la
@@ -2441,16 +2436,17 @@ questa operazione 
 diventa serio quando si verifica l'\textsl{effetto ping-pong}, in tal caso
 infatti un processo \textsl{rimbalza} continuamente da un processore all'altro
 e si ha una continua invalidazione della cache, che non diventa mai
-disponibile. 
+disponibile.
 
+\itindbeg{CPU~affinity}
 Per ovviare a questo tipo di problemi è nato il concetto di \textsl{affinità
-  di processore} (o \index{\textit{CPU~affinity}}\textit{CPU affinity}); la
+  di processore} (o \textit{CPU affinity}); la
 possibilità cioè di far sì che un processo possa essere assegnato per
 l'esecuzione sempre allo stesso processore. Lo scheduler dei kernel della
-serie 2.4.x aveva una scarsa \textit{CPU affinity}, e l'effetto ping-pong era
-comune; con il nuovo scheduler dei kernel della 2.6.x questo problema è stato
-risolto ed esso cerca di mantenere il più possibile ciascun processo sullo
-stesso processore.
+serie 2.4.x aveva una scarsa \textit{CPU affinity}, e
+\index{effetto~ping-pong} l'effetto ping-pong era comune; con il nuovo
+scheduler dei kernel della 2.6.x questo problema è stato risolto ed esso cerca
+di mantenere il più possibile ciascun processo sullo stesso processore.
 
 In certi casi però resta l'esigenza di poter essere sicuri che un processo sia
 sempre eseguito dallo stesso processore,\footnote{quella che viene detta
@@ -2584,6 +2580,9 @@ paricolari.
 soltanto su un sistema multiprocessore, esse possono comunque essere
 utilizzate anche in un sistema con un processore singolo, nel qual caso però
 non avranno alcun risultato effettivo.
+\itindend{scheduler}
+\itindend{CPU~affinity}
+
 
 
 \section{Problematiche di programmazione multitasking}
@@ -2613,10 +2612,10 @@ di interruzione in una fase intermedia.
 In un ambiente multitasking il concetto è essenziale, dato che un processo può
 essere interrotto in qualunque momento dal kernel che mette in esecuzione un
 altro processo o dalla ricezione di un segnale; occorre pertanto essere
-accorti nei confronti delle possibili 
-\textit{race condition}\index{\textit{race~condition}} (vedi
-sez.~\ref{sec:proc_race_cond}) derivanti da operazioni interrotte in una fase
-in cui non erano ancora state completate.
+accorti nei confronti delle possibili \textit{race
+  condition}\itindex{race~condition} (vedi sez.~\ref{sec:proc_race_cond})
+derivanti da operazioni interrotte in una fase in cui non erano ancora state
+completate.
 
 Nel caso dell'interazione fra processi la situazione è molto più semplice, ed
 occorre preoccuparsi della atomicità delle operazioni solo quando si ha a che
@@ -2651,7 +2650,7 @@ condiviso, onde evitare problemi con le ottimizzazioni del codice.
 \subsection{Le \textit{race condition} ed i \textit{deadlock}}
 \label{sec:proc_race_cond}
 
-\index{\textit{race~condition}|(}
+\itindbeg{race~condition}
 Si definiscono \textit{race condition} tutte quelle situazioni in cui processi
 diversi operano su una risorsa comune, ed in cui il risultato viene a
 dipendere dall'ordine in cui essi effettuano le loro operazioni. Il caso
@@ -2680,7 +2679,7 @@ cui si compiono le operazioni sulle risorse condivise (le cosiddette
 opportunamente protette da meccanismi di sincronizzazione (torneremo su queste
 problematiche di questo tipo in cap.~\ref{cha:IPC}).
 
-\index{\textit{deadlock}|(} 
+\itindbeg{deadlock}
 Un caso particolare di \textit{race condition} sono poi i cosiddetti
 \textit{deadlock}, particolarmente gravi in quanto comportano spesso il blocco
 completo di un servizio, e non il fallimento di una singola operazione. Per
@@ -2702,8 +2701,8 @@ In tutti questi casi 
 visto in sez.~\ref{sec:proc_atom_oper}; questi problemi infatti possono essere
 risolti soltanto assicurandosi, quando essa sia richiesta, che sia possibile
 eseguire in maniera atomica le operazioni necessarie.
-\index{\textit{race~condition}|)}
-\index{\textit{deadlock}|)}
+\itindend{race~condition}
+\itindend{deadlock}
 
 
 \subsection{Le funzioni rientranti}