Memoria Centrale.

Slides:



Advertisements
Presentazioni simili
Scheduling (Schedulazione) Susanna Pelagatti – Università di Pisa
Advertisements

Memoria Virtuale in Linux
Gestione della Memoria
Meccanismi di IPC Problemi classici di IPC
1 Introduzione ai calcolatori Parte II Software di base.
Gestione della memoria centrale
Gestione della memoria
Unità D2 Archivi e file.
Il Sistema Operativo.
File System Cos’è un File System File e Directory
Gestione della Memoria
1 Processi e Thread Processi Thread Meccanismi di comunicazione fra processi (IPC) Problemi classici di IPC Scheduling Processi e thread in Unix Processi.
Gestione della Memoria
Gestione del processore
Frontespizio Economia Monetaria Anno Accademico
Realizzazione del file system
Memoria virtuale Memoria virtuale – separazione della memoria logica dell’utente dalla memoria fisica. Solo alcune parti di un programma devono trovarsi.
Gestione della memoria
Realizzazione del file system
Memoria Virtuale Background Paginazione su richiesta
Gestione della memoria
Interfaccia del file system
Scheduling della CPU Concetti fondamentali Criteri di scheduling
Il Software: Obiettivi Programmare direttamente la macchina hardware è molto difficile: lutente dovrebbe conoscere lorganizzazione fisica del computer.
DIPARTIMENTO DI ELETTRONICA E INFORMAZIONE Puntatori Marco D. Santambrogio – Ver. aggiornata al 21 Marzo 2013.
2 Sistema composto da un numero elevato di componenti, in cui ogni componente svolge una sua funzione elaborazione dati memorizzazione dati trasferimento.
File.
1 Corso di Informatica (Programmazione) Lezione 4 (24 ottobre 2008) Architettura del calcolatore: la macchina di Von Neumann.
Corso di Informatica (Programmazione)
Ufficio Studi UNIONCAMERE TOSCANA 1 Presentazione di Riccardo Perugi Ufficio Studi UNIONCAMERE TOSCANA Firenze, 19 dicembre 2000.
eliana minicozzi linguaggi1a.a lezione2
Struttura dei sistemi operativi (panoramica)
I Thread.
Gestione della memoria principale
Tabelle hash.
Software di base Il sistema operativo è un insieme di programmi che opera sul livello macchina e offre funzionalità di alto livello Es.organizzazione dei.
memoria gestita staticamente:
3. Architettura Vengono descritte le principali componenti hardware di un calcolatore.
Università di Trieste Calcolatori Elettronici a.a Omero TuzziL01, Basi 1 Sommario: 1. Concetto di bit. 2. Indirizzi di memoria. 3. Ordinamento.
Sistemi Operativi GESTIONE DEI PROCESSI.
Sistemi Operativi GESTIONE DELLA MEMORIA CENTRALE.
Strutture dei sistemi di calcolo Funzionamento di un sistema di calcolo Struttura di I/O Struttura della memoria Gerarchia delle memorie Architetture di.
Il sistema operativo Vito Perrone
INTRODUZIONE l sistema operativo è il primo software che lutente utilizza quando accende il computer; 1)Viene caricato nella memoria RAM con loperazione.
1 Negozi Nuove idee realizzate per. 2 Negozi 3 4.
La Gestione della Memoria
Introduzione all'uso del PC
Il Sistema Operativo: il File System
Unità Didattica 3 Linguaggio C
Sviluppare un programma in C che, dato un array da 100 elementi interi caricato con numeri casuali compresi tra [10,100], sia in grado di cercare il valore.
Atzeni, Ceri, Paraboschi, Torlone Basi di dati McGraw-Hill,
Threads.
Architettura Centralizzata di un DBMS Relazionale
Gestione della Memoria
Sistema Operativo (Software di base)
Memoria La memoria è un vettore di stringhe di bit (word/parole) In memoria è allocato il Sistema Operativo. In memoria sono allocati i programmi per poter.
TRASFORMATA DI FOURIER
1 Gestione del Processore (Scheduling). 2 Scheduling dei processi È l’attività mediante la quale il sistema operativo effettua delle scelte tra i processi,
SISITEMI MONOPROGRAMMATI E MULTI PROGRAMMATI
IL GIOCO DEL PORTIERE CASISTICA. Caso n. 1 Il portiere nella seguente azione NON commette infrazioni.
1 Gestione della Memoria. 2 Idealmente la memoria dovrebbe essere –grande –veloce –non volatile Gerarchia di memorie –Disco: capiente, lento, non volatile.
Gestione del processore (Scheduler)
Gestione della Memoria
1 Gestione della Memoria Capitolo Introduzione alla gestione della memoria 4.2 Swapping 4.3 Memoria virtuale 4.4 Implementazione 4.5 Algoritmi di.
Gestione della Memoria
1 1. Introduzione alla gestione della memoria 2. Swapping 3. Memoria virtuale 4. Implementazione 5. Algoritmi di sostituzione Gestione della Memoria.
Corso di Laurea in Biotecnologie corso di Informatica Paolo Mereghetti DISCo – Dipartimento di Informatica, Sistemistica e Comunicazione.
La gerarchia di memorie
Hardware Struttura fisica (architettura) del calcolatore formata da parti meccaniche, elettriche, elettroniche.
 Ogni processo che deve essere eseguito da un sistema di elaborazione, deve essere caricato e risiedere almeno parzialmente nella memoria centrale 
Transcript della presentazione:

Memoria Centrale

Outline Introduzione Swapping Allocazione contigua Paginazione Struttura della tabella delle pagine Segmentazione

Outline Introduzione Swapping Allocazione contigua Paginazione Struttura della tabella delle pagine Segmentazione

Introduzione Nei moderni Sistemi Operativi la gestione della memoria è un aspetto fondamentale per la realizzazione della multiprogrammazione poiché più processi attivi devono essere presenti in memoria Un programma per essere eseguito deve trovarsi nella memoria primaria Lo scopo del Sistema Operativo è di allocare la memoria per i processi da mandare in esecuzione in modo che siano pronti quando la CPU gli viene assegnata L’allocazione della memoria ai processi è quindi uno dei compiti di un Sistema Operativo

Associazione degli indirizzi - 1 I programmi utente passano attraverso stadi diversi, con diverse rappresentazioni degli indirizzi, prima di essere eseguiti Indirizzi simbolici Gli indirizzi nel programma sorgente Esempio: count Indirizzi rilocabili Indirizzi calcolati rispetto ad un valore di riferimento Esempio: calcolati a partire dalla prima istruzione del programma che ha indirizzo 0 Indirizzi assoluti Indirizzi propri della memoria centrale Esempio 74014

Associazione degli indirizzi - 2 L’associazione di istruzioni e dati a indirizzi di memoria si può compiere in diverse fasi Compilazione - se la posizione in memoria del processo è nota a priori, può essere generato codice assoluto se la locazione iniziale cambia, è necessario ricompilare il codice Caricamento - se la posizione in memoria non è nota in fase di compilazione, è necessario generare codice rilocabile il compilatore genera indirizzi relativi che vengono convertiti in indirizzi assoluti dal loader se l’indirizzo iniziale cambia, il codice deve essere ricaricato in memoria Esecuzione Se il programma durante la sua esecuzione può essere spostato da una parte all’altra della memoria allora l’associazione deve essere fatta a tempo di esecuzione È necessario un opportuno supporto hardware per il mapping degli indirizzi I vantaggi principali sono: Assoluta indipendenza da una locazione di memoria Possibilità di cambiare il blocco di memoria occupato immediatamente I Sistemi Operativi moderni supportano questa modalità di associazione

Spazi di indirizzi logici e fisici Gli indirizzi utilizzati da una applicazione sono diversi dagli indirizzi realmente utilizzati dall’applicazione in memoria Indirizzo logico (o indirizzo virtuale): è generato dalla CPU nel momento della compilazione Indirizzo fisico: è l’indirizzo effettivamente utilizzato dall’applicazione in memoria Il binding mappa indirizzi logici in indirizzi fisici Binding statico : a tempo di compilazione o di caricamento Indirizzi logici = indirizzi fisici Binding dinamico: a run-time indirizzi logici (o virtuali) <> indirizzi fisici Possibilità di spostare processi in memoria all’atto dell’esecuzione Supporto fondamentale a memoria virtuale e swapping

Memory-Management Unit (MMU) L’associazione in fase di esecuzione tra lo spazio degli indirizzi logici e lo spazio di indirizzi virtuali è svolta da unità di gestione della memoria (memory-management unit, MMU) La MMU possiede un registro di rilocazione che permette immediatamente di convertire un indirizzo logico in indirizzo fisico Il programma utente tratta sempre indirizzi logici mentre l’architettura di sistema tratta indirizzi fisici Esempio: se l’applicazione utilizza un range di indirizzi logici da 0 a max ed il registro di locazione contiene il valore r allora il range di indirizzi fisici sarà da 0+r a r+max Supponiamo che il registro di rilocazione contenga il valore 14000 Qualunque tentativo da parte dell’applicazione di accedere alle locazioni di memoria 0 e 346 si traduce in 0 + 14000 = 14000 346 + 14000 = 14346

Caricamento dinamico Un applicazione durante il suo ciclo di esecuzione utilizza delle procedure esterne (librerie di procedure) Il caricamento dinamico permette di caricare una procedura in memoria solo quando viene richiamata La memoria viene utilizzata meglio poiché la procedura è caricata solo se effettivamente utilizzata Anche se l’applicazione è enorme, la memoria occupata è effettivamente solo quella necessaria Il programmatore deve prestare attenzione progettando l’applicazione in modo da trarre vantaggio dal caricamento dinamico

Librerie di procedure Le librerie di procedure possono essere fondamentalmente di due tipi Librerie statiche - contengono procedure che vengono collegate al codice del programma principale dal compilatore o dal loader e diventano parte dell’eseguibile Lo svantaggio principale è che se n programmi utilizzano la stessa libreria statica questa sarà incorporata da ogni eseguibile e quindi lo stesso codice sarà caricato più volte in memoria Oltretutto se l’applicazione una volta mandata in esecuzione non utilizzerà nessuna procedura della libreria occuperà inutilmente spazio in memoria Librerie dinamiche – non sono collegate al codice e vengono caricate in memoria solo quando l’applicazione chiama una delle sue procedure. La librerie è quindi caricata in memoria a run-time utilizzando un caricamento dinamico L’applicazione che utilizza una libreria dinamica conterrà all’interno del suo codice il nome della procedura che vuole chiamare Il vantaggio principale è che il codice di una libreria dinamica può essere condivisa tra più processi evitando inutili duplicazioni in memoria di codice identico Sotto linux le librerie dinamiche hanno estensione .so Sotto Windows le librerie dinamiche hanno la “ben nota” estensione .dll

Outline Introduzione Swapping Allocazione contigua Paginazione Struttura della tabella delle pagine Segmentazione

Swapping L’idea dell’avvicendamento dei processi (o swapping) è salvare nella memoria secondaria un processo non in esecuzione (swap out) e ricaricarlo (swap in) appena prima di dargli la CPU Lo swapping permette di avere più processi attivi di quanti effettivamente possa contenere la RAM I processi attivi sono mantenuti temporaneamente su un’area del disco fisso ad uso esclusivo del Sistema Operativo chiamata area di swap (o backing store) Poiché un processo può essere ricaricato in una diversa aria di memoria principale è necessario utilizzare codice dinamicamente rilocabile in fase di esecuzione

Il cambio di contesto nello swapping La fase di contex switch utilizzando lo swapping può aumentare significativamente Ad esempio supponiamo di avere in memoria un processo di 10MB e supponiamo che il disco fisso abbia una velocità di trasferimento di 40MB/sec Il tempo di trasferimento è pari a: 10.000KB / 40.000KB/sec = ¼ sec = 250 millisecondi A questo tempo va aggiunto il tempo per posizionare le testine (circa 8 millisecondi) quindi passiamo a: 258 millisecondi Infine va considerato che l’avvicendamento include una fase di scrittura (swap out) ed una di lettura (swap in) quindi in totale avremo: 516 millisecondi Quindi un quanto di tempo dovrebbe essere maggiore di 0,516 secondi

Outline Introduzione Swapping Allocazione contigua Paginazione Struttura della tabella delle pagine Segmentazione

Allocazione contigua della memoria La memoria principale è normalmente suddivisa in due parti: Il Sistema Operativo è caricato nella parte bassa della memoria (a partire dall’indirizzo 0) I processi utente sono memorizzati nella memoria alta Ogni processo è contenuto in una singola, contigua sezione di memoria La memoria può essere allocata utilizzando diverse strategie tra le quali le più note sono: Partizioni multiple fisse Partizioni multiple variabili

Partizioni multiple fisse Nello schema a partizioni multiple fisse (Multiprogramming with a Fixed number of Tasks, MFT) la memoria è suddivisa in blocchi (non necessariamente tutti uguali) di dimensione fissata a priori e non modificabile Ogni partizione può contenere un processo Il numero di partizioni decide il grado di multiprogrammazione Al termine di un processo, la partizione è libera per contenere un altro processo Quando un processo viene schedulato, il SO cerca una partizione libera di dimensioni sufficienti ad accoglierlo Meccanismo dei registri limite e di rilocazione può essere utilizzato per proteggere le varie partizioni …

Registro limite e di rilocazione Ogni processo deve avere uno spazio di memoria proprio e separato dal resto dei processi in modo che nessun altro possa accedervi Una soluzione consiste nell’utilizzare due registri Registro di rilocazione: contiene il più piccolo indirizzo fisico ammesso Registro limite: contiene l’intervallo degli indirizzi ammissibili Solo il Sistema Operativo può accedere a questi registri ed impedisce ai programmi utenti di modificarli In fase di contex switch il Sistema Operativo Operativo carica: Nel registro di rilocazione l’indirizzo iniziale della partizione Nel registro limite la dimensione del processo rilocazione

MFT problemi: frammentazioni Frammentazione interna Un processo allocato in una partizione difficilmente ha esattamente la stessa dimensione La parte che rimane viene sprecata Ad esempio, nella partizione da 2Mbyte, 512KB vengono sprecati Frammentazione esterna Un altro svantaggio sta nel numero di buchi che restano liberi in ogni partizione Ad esempio: allocando diversi processi in ogni partizione otteniamo uno spreco di 512KB+512KB+1MB+2MB = 3MB Un processo potrebbe essere allocato nel blocco ottenuto sommando i diversi buchi sprecati

Svantaggi MFT Frammentazione interna In un blocco di dimensione fissa la memoria interna ad un partizione è assegnata ma non utilizzata completamente Frammentazione esterna Lo spazio di memoria lasciato dai buchi è sufficiente per contenere un altro processo ma non è contigua Se un processo è più grande della più grande partizione non può essere caricato Aumentando la dimensione delle partizioni diminuisce il grado di multiprogrammazione ma tende anche ad aumentare la frammentazione interna

Partizioni multiple variabili Nella schema a partizioni multiple variabili (Multiprogramming with a Variable number of Tasks, MVT) ogni partizione è allocata dinamicamente e dimensionata in base alla dimensione del processo da allocare Vantaggi (w.r.t MFT) Non è più presente la frammentazione interna: ogni partizione è dell’esatta dimensione del processo Il grado di multiprogrammazione è variabile La dimensione massima dei processi è limitata dalla disponibilità di spazio fisico

MVT problemi: frammentazione esterna Dopo che diversi processi si sono avvicendati in memoria vengono lasciati diversi buchi I buchi con il tempo diventano sempre più sparsi e non utilizzabili

MVT: Metodi di allocazione Il Sistema Operativo tiene traccia di tutti i buchi liberi e della loro dimensione Quando un processo deve essere caricato in memoria il Sistema Operativo deve cercare un buco sufficientemente grande per contenerlo Le strategie per scegliere un buco libero sono: First-fit: scegli la prima partizione abbastanza grande per poter caricare il processo Best-fit: scegli la più piccola partizione abbastanza grande per poter caricare il processo È necessario scandire tutta la lista dei buchi (se non è ordinata) Worst-fit: scegli la partizione più grande Sperimentalmente il metodo migliore di allocazione risulta essere il First-fit ed il Best-fit in termini di velocità e di impiego di memoria

Svantaggi MVT Frammentazione esterna Con il tempo si formano diversi buchi non contigui che non sono in grado di ospitare un processo La gravità del problema della frammentazione esterna per allocazione contigua dipende dalla quantità totale di memoria e dalla dimensione media dei processi Regola del 50%: Con First-fit, per n blocchi assegnati, 0.5n blocchi possono andare “persi” per frammenta-zione Si può ridurre la frammentazione esterna con la compattazione …

MVT: compattazione La compattazione è la soluzione che si adopera per recuperare i buchi di memoria inutilizzata L’idea è di spostare le immagini dei processi in maniera da ricavare un buco di memoria contigua sufficientemente grande da permettere di caricare altri processi Per poter utilizzare la compattazione è necessario che i processi siano rilocabili Essendo una operazione onerosa che può richiedere molto tempo durante la compattazione il sistema è inutilizzabile Strategie di compattazione - La compattazione può essere effettuata in diversi modi: Spostare tutti i processi verso un estremo della memoria (molto costoso) Spostare i processi in buchi già esistenti verso gli estremi della memoria (statisticamente si sposta meno memoria) Spostare solo i processi necessari per far entrare un nuovo processo che altrimenti non avrebbe spazio sufficiente

MVT: esempi compattazione

Outline Introduzione Swapping Allocazione contigua Paginazione Struttura della tabella delle pagine Segmentazione

Paginazione L’allocazione della memoria presenta diversi problemi per via della frammentazione interna ed esterna Il problema nasce dall’allocazione contigua della memoria che necessita di trovare buchi in cui allocare il processo intero La paginazione è un metodo che permette di allocare ai processi una spazio di memoria fisica non necessariamente contiguo

Paginazione: metodo di base La memoria fisica è divisa in blocchi di dimensione fissa chiamati frame o pagine fisiche La dimensione è una potenza di 2, compresa fra 512 byte e 16 MB, ma valori tipici negli elaboratori attuali sono 4KB-8KB La memoria logica utilizzata dal processo è divisa in blocchi della stessa dimensione chiamati pagine Il processo è sempre allocato all’interno della memoria logica in uno spazio contiguo Per eseguire un processo di n pagine è necessario trovare n frame liberi prima di caricare il processo I frame non devono essere necessariamente contigui

Schema di traduzione degli indirizzi Ad ogni processo è associata una tabella delle pagine (PT) contenente i numeri dei frame usati per memorizzare le pagine del processo Serve per tradurre gli indirizzi logici negli indirizzi fisici corrispondenti L’indirizzo generato dalla CPU è divisa in due parti: Numero di pagina (p): è utilizzato come indice nella tabella delle pagine che contiene l’indirizzo base del frame nella memoria fisica Scostamento (offset) di pagina (d): è combinato con l’indirizzo di pagina fisica per ottenere l’indirizzo effettivo della memoria fisica Nota: In fase di contex switch il Sistema Operativo attiva la tabella delle pagine per il processo a cui è stata assegnata la CPU Il tempo per la fase di contex switch con l’introduzione della paginazione può quindi aumentare in maniera considerevole Numero di pagina Scostamento p d

Es. di paginazione di memoria logica e memoria fisica

Es. di paginazione di memoria logica e memoria fisica

Dimensione delle pagine La dimensione della pagine è definita dall’architettura del sistema ed è in genere una potenza di 2 La dimensione di una pagina può variare dai 512 byte ai 16MB La scelta di una potenza di due semplifica notevolmente la traduzione di un indirizzo logico in un indirizzo fisico Se lo spazio logico di indirizzamento è 2m la dimensione di una pagina è 2n allora abbiamo: m-n bit per indicizzare le pagine n bit per lo scostamento (i.e., la grandezza di ogni pagina) Numero di pagina Scostamento p d m-n bit n bit

Esempio Supponiamo di avere le seguenti condizioni Dimensione delle pagine di 4 byte Dimensione totale della memoria 32 byte n = 2 m = 5 L’indirizzo logico 3 (00011 = #pagina=0, offset=3) corrisponde all’indirizzo fisico (5x4)+3 = 23 L’indirizzo logico 6 (00110 = #pagina=1, offset=2) corrisponde all’indirizzo fisico (6x4)+2 = 26

Tabella dei frame Poiché il SO gestisce la memoria fisica, deve essere informato su: quali frame sono assegnati e a chi quali e quanti frame sono liberi … Le informazioni sono contenute nella tabella dei frame Una entry per ciascun frame, per definire se la pagina fisica è libera o assegnata e, nel secondo caso, a quale pagina di quale(/i) processo(/i)

Paginazione: vantaggi Con la paginazione è possibile evitare la frammentazione esterna Ogni frame libero si può assegnare ad un processo che ne abbia bisogno Però… l’ultimo frame assegnano potrebbe non essere completamente occupato causando quindi frammentazione interna Il caso peggiore si verifica quando un processo è un multiplo della dimensione della pagina + 1 byte. In questo caso una pagina è completamente sprecata La dimensione delle pagine è aumentata col tempo, attualmente si usano pagine di 4096, 8192, 16384 byte, fino a 4 Mbyte Pagine più grandi producono maggiore frammentazione interna, ma permettono di avere tabelle delle pagine più piccole (meno occupazione di memoria)

Archietteura di paginazione Com’è implementato il meccanismo di traduzione degli indirizzi? Poiché ogni indirizzo deve passare attraverso il sistema di paginazione, il meccanismo di traduzione degli indirizzi deve essere molto efficiente Il collo di bottiglia potrebbe essere l’accesso alla tabella della pagine (PT) Infatti, ogni indirizzo logico deve essere tradotto in un indirizzo fisico con un accesso alla PT Se la tabella è di piccole dimensioni può stare nei registri (accesso veloce) … in realtà negli attuali sistemi la tabella della pagine può avere un numero di elementi troppo grande per essere contenuta all’interno dei registri della CPU Due sono le possibili soluzioni: Registro di base della tabella delle pagine (Pagetable base register, PTBR) Memoria associativa (Translation look-aside buffer, TLB)

Registro di base della tabella delle pagine Il registro PTBR punta alla tabella delle pagine che risiede in memoria In fase di context switch è necessario solo aggiornare questo registro riducendo il tempo del cambio di contesto Il problema di questa soluzione è che per ogni indirizzo logico, occorrono due accessi alla RAM: Uno per recuperare il frame (conversione indirizzo logico in fisico) Uno per recuperare il dato In definitiva il numero di accessi alla memoria fisica aumenta di un fattore 2

Memoria associativa (o TLB) - 1 Una memoria associativa (translation look-aside buffer, TLB) è una cache particolarmente veloce All’interno della memoria associativa abbiamo una coppia del tipo (chiave,valore) Per ogni chiave passata in input alla memoria associativa, questa viene confrontata contemporaneamente con tutte le chiavi presenti per restituire il valore in output Il dispositivo è molto veloce e costoso, e le dimensioni di una TLB sono ridotte (dai 64 ai 1024 elementi)

Memoria associativa (o TLB) - 2 Nella memoria associativa viene caricata una porzione della tabella della pagine (anche tutta se è possibile) Ad ogni chiave corrisponde un numero di pagina a cui corrisponde un frame Per ogni indirizzo logico (p,d), il numero di pagina p viene dato in input alla memoria associativa per ottenere il relativo frame Se la ricerca ha successo (hit) si ha solo una penalizzazione del 10% del tempo di accesso alla memoria senza paginazione Se la ricerca fallisce (TLB miss) allora occorre usare la tabella delle pagine nella RAM #pagina (chiave) #frame

Architettura di paginazione con TLB

Hit ratio 20 + 100 = 120 nanosecondi 20 + 100 + 100 = 220 nanosecondi Definiamo il tasso di successo (hit ratio) la percentuale di volte che la ricerca nella TLB ha successo Con un hit ratio dell’80% il numero della pagine è trovata nella TLB l’80% delle volte Supponiamo che un accesso in memoria impiega 100 nanosecondi Se la ricerca nella TLB impiega 20 nanosecondi allora un accesso in memoria impiega: 20 + 100 = 120 nanosecondi Se il numero di pagina non è contenuto nella TLB allora è necessario accedere alla memoria fisica per determinarlo, quindi un accesso in memoria impiega: 20 + 100 + 100 = 220 nanosecondi Nel caso in cui la percentuali di hit ratio è dell’80% e di insuccessi è del 20% il tempo medio di accesso alla memoria fisica è: 0.80 x 120 + 0.20 x 220 = 140 nanosecondi le prestazioni degradano del 40% Nel caso in cui la percentuali di hit ratio è dell’95% e di insuccessi è del 2% il tempo medio di accesso alla memoria fisica è: 0.95 x 120 + 0.02 x 220 = 122 nanosecondi le prestazioni degradano del 22%

Pagine condivise Due processi potrebbero eseguire lo stesso codice Ad esempio una libreria oppure un editor di testi in un ambiente multiutente La paginazione permette di condividere facilmente codice tra diversi processi (codice puro o rientrante) Questa opzione è possibile perché il codice rientrante non cambia durante l’esecuzione del processo Il codice condiviso deve apparire nella stessa locazione nello spazio degli indirizzi logici di tutti i processi

Esempio di pagine condivise

Outline Introduzione Swapping Allocazione contigua Paginazione Struttura della tabella delle pagine Segmentazione

Segmentation La segmentazione è uno schema di gestione della memoria che supporta il punto di vista dell’utente I due spazi di indirizzamento non coincidono ma il meccanismo di traduzione permette di collegarli Normalmente l’utente percepisce un programma come un collezione di “segmenti” separati Programma principale Procedure Aree dati procedura Stack Tabelle dei simboli

Vista logica della segmentazione 1 4 2 3 1 2 3 4 user space physical memory space

Indirizzare un elemento del segmento Un compilatore in fase di compilazione genera automaticamente i segmenti, ad esempio un compilatore C crea i seguenti segmenti: Il codice Variabili globali Heap, da cui si alloca la memoria Variabili locali statiche di ogni funzione o procedura Librerie standard del C Ogni segmento ha lunghezza variabile Un elemento del segmento (codice o dati) è identificato mediante la coppia (#segmento, offset) #segmento: numero del segmento a cui l’elemento appartiene offset: scostamento all’interno del segmento

Architettura di segmentazione - 1 I segmenti sono allocati all’interno della memoria fisica Per indicizzare i segmenti abbiamo bisogno di una tabella dei segmenti Ogni elemento della tabella dei segmenti è formata da una coppia: Base del segmento: l’indirizzo fisico di partenza del segmento in MP Limite del segmento: la lunghezza del segmento Il #segmento nell’indirizzo logico, è l’indice all’interno della tabella contenente la coppia (base, limite) relativa a quel segmento

Architettura di segmentazione - 2

Esempio di segmentazione

Frammentazione I segmenti di un processo, come nel caso delle pagine, non devono essere contigui nella memoria fisica I segmenti sono di dimensione diversa, e un qualsiasi “buco” va bene, per cui: È necessario adottare strategie di allocazione best/first fit Ci possono essere problemi di frammentazione esterna Un segmento potrebbe non trovare spazio in ram (anche se lo spazio c’è...) Tuttavia, la grandezza media dei segmenti è piccola, per cui il loro uso è comunque più vantaggioso dell’allocazione contigua a partizioni variabili