La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Process synchronization

Presentazioni simili


Presentazione sul tema: "Process synchronization"— Transcript della presentazione:

1 Process synchronization
Operating System Sistemi Operativi Marco D. Santambrogio – Ver. aggiornata al 28 Dicembre 2013 © 2005 William Fornaciari

2 Agenda Intro e un po’ di storia Qualche curiosità
Accenni sul funzionamento di un SO

3 Cosa vediamo adesso… Intro e un po’ di storia Qualche curiosità
Accenni sul funzionamento di un SO

4 Le generazioni 40’: Prima generazione 50’: Seconda generazione
E’ in realtà difficile parlare di SO 50’: Seconda generazione La General Motors Research Laboratories crea il 1mo SO per l’IBM 701 60’: Terza generazione Multiprogramming, più programmi simultaneamente nella memoria centrale Time-sharing 70’-90’: Quarta generazione Circuiti LSI (Large Scale Integration) Nascita dei Personal Computer 00’: Quinta generazione Sistemi multicore

5 UNIX 1969: La storia di UNIX inizia nei laboratori Bell della AT&T
1973: La svolta, UNIX viene scritto in C. 1975: Viene scritta la Versione 6 di UNIX Divenne largamente utilizzata anche fuori dai laboratori Bell Il problema/il vantaggio: Essendo allora UNIX libero, ogni venditore di macchine si faceva una versione proprietaria esclusiva, un po' diversa ed spesso incompatibile con le versioni degli altri venditori

6

7 *NIX

8 GNU Operating System 1984: Nasce il progetto GNU
GNU’s Not Unix GNU è un sistema operativo tipo Unix distribuito come SW libero Il Kernel di GNU è Hurd Kernel in continuo sviluppo GNU/Linux Nota: il kernel (nucleo) è un programma che si occupa di dare le funzionalità di base per il funzionamento di un computer

9 Linux 1991: Nascita di Linux Linus Torvalds
Si scontra in un newsgroup Usenet con il professor Andrew Tanenbaum Tanenbaum è l’invetore di Minix Divieto di modifcare il codice per fini non educational e sotto approvazione dell’autore Kernel monolitici Vs microkernel

10 microkernel Vs kernel modulare
kernel minimale con “lo stretto indispensabile” ad utilizzare l’hardware si scrivono tutti i servizi (chiamate di sistema) in user-space comunicano direttamente con il kernel minimale le altre applicazioni in user-space possono decidere di utilizzare le chiamate di sistema o riferirsi direttamente al microkernel. kernel monolitico Tutto quanto necessario ad usare il sistema e a fornirne un utilizzo ai programmi che vi girano è programmato in un unico programma (monolitico) che gira in kernel-space

11 Linux e la sua comunità I LUG: Linux User Group Il Linux DAY
Associazioni senza fine di lucro Diffondere l’uso del SW Libero Diffondere l’uso dei SO basati sul kernel di Linux Il Linux DAY Evento per la promozione del SW libero e dei sistemi basati su Linux

12 shell di DOS

13 DOS CP/M 1980: 86-DOS/QDOS 1981: Control Program for Microcomputers
Gary Kildall della Digital Research 1980: 86-DOS/QDOS Quick and Dirty Operating System Tim Paterson della Seattle Computer Products 1981: Luglio: Microsoft compra per$50K(?) l’86-DOS Agosto: Microsoft Disk Operating System MS-DOS 1.0

14 Windows Nov. 1983: Annuncio di Windows
Nov. 1955: Windows 1.0 rilasciato 1998: Windows 98 2000: Windows 2000 2001: Windows XP 2007: Windows Vista 2009: Windows 7 kernel ibrido microkernel fatto comunicare tramite messaggi con i restanti servizi, tutto in kernel-space

15 Mac OS e Mac OS X 1984: Mac OS ‘86-’95: NextSTEP (’98 Rhapsody)
Macintosh Operating System Primo OS ad usare con successo una GUI ‘86-’95: NextSTEP (’98 Rhapsody) kernel Mach (microkernel) Objective-C Gestione orientata agli oggetti Diventerà Cocoa Mac OS X Rhapsody + Mac OS

16 Calcolo parallelo N Cores 1000 cores #Cores 64 cores 32 Sun Larrabee Il mondo dell’informatica è pronto per una rivoluzione 8-24 cores Intel 4 Quad core 2 Dual core 1 2005 2006 2007 2014 Time

17 Sistemi Operativi per multicore
Barrelfish Operating System @ ETH K42/Tornado OS @ IBM/Uniersity of Toronto fos: Factored Operating System @ MIT groups.csail.mit.edu/carbon/fos Tessellation OS @ Berkeley

18 Cosa vediamo adesso… Intro e un po’ di storia Qualche curiosità
Accenni sul funzionamento di un SO

19 In Italia…Alessandro Rubini
Co-autore di Linux Device Drivers Pagina personale Intervista: Il kernel? Non è vecchio, solo complicato

20 … il Politecnico di Milano
RTAI: RealTime Application Interface Patch Real Time per Linux DIAPM: Dipartimento di Ingegneria Aerospaziale https://www.rtai.org/ AcOS: Autonomic Operating System for Adaptive Computing Patch Self-Aware per Linux e FreeBSD DEI: Dipartimento di Elettronica e Informazione morphone.OS Patch Self-Aware per Android

21 Cosa vediamo adesso… Intro e un po’ di storia Qualche curiosità
Accenni sul funzionamento di un SO

22 Ma prima… PAUSA!!!... 10’

23 Il sistema Operativo Il sistema operativo (SO) è uno strato software che nasconde agli utenti i dettagli dell’architettura hardware del calcolatore Fornisce diverse funzionalità ad alto livello che facilitano l’accesso alle risorse del calcolatore Supporta l’esecuzione dei programmi applicativi definendo una macchina virtuale, cioè un modello ideale del calcolatore, sollevando il software applicativo dal compito di gestire i limiti delle risorse disponibili

24 Il SO e la macchina reale
utilizzo a rotazione suddivisione in blocchi utilizzo a rotazione CPU A, B, C, D RAM A B C D Periferiche A, B, C, D bus

25 Il SO e le macchine virtuali
Il sistema operativo può gestire più processi simultaneamente Rende quindi visibile ad ogni processo una macchina virtuale ad esso interamente dedicata e quindi con risorse proprie nella figura OD = other devices (altri dispositivi) CPU A RAM A OD A HD A Rete A I/O A proc. A CPU B RAM B OD B HD B Rete B I/O B proc. B CPU D RAM D OD D HD D Rete D I/O D proc. D CPU C RAM C OD C HD C Rete C I/O C proc. C bus

26 Architettura del SO Kernel Il SO è tipicamente organizzato a strati
Ciascun strato costituisce una macchina virtuale che gestisce una risorsa del calcolatore Le principali funzionalità offerte sono: La gestione dei processi La gestione della memoria La gestione delle periferiche (tra cui la rete) La gestione del file system La gestione dell’interfaccia utente Le prime tre funzionalità sono indispensabili per il funzionamento del sistema e pertanto costituiscono il nucleo del SO (Kernel) Programmi utente Interprete comandi File system Gestione delle periferiche Gestione della memoria Gestione dei processi Macchina fisica Kernel

27 Tipi di Sistema Operativo
Esistono diversi tipi di sistema operativo, ma in generale si possono dividere in: Monoutente e monoprogrammato Esecuzione un solo programma applicativo alla volta Viene utilizzato da un solo utente per volta Esempio: DOS Monoutente e multiprogrammato (multitasking) Consente di eseguire contemporaneamente più programmi applicativi Esempio: Windows 95 Multiutente Consente l’utilizzo contemporaneo da parte di più utenti E’ inerentemente multiprogrammato Esempio: Linux

28 Gestione dell’interfaccia utente
Il SO fornisce un interprete dei comandi inseriti dall’utente attraverso la tastiera o il mouse L’interfaccia utente può essere Testuale (esempio: DOS) Grafica (esempio: Windows) Consente l’inserimento di diversi comandi: Esecuzione di programmi applicativi Operazioni sulle periferiche Configurazione dei servizi del SO Operazioni sul file system (creazione, rimozione, copia, ricerca, ecc.)

29 Gestione del file system
Il SO si occupa di gestire i file sulla memoria di massa: Creare un file Dargli un nome Collocarlo in un opportuno spazio nella memoria di massa Accedervi in lettura e scrittura Gestione dei file indipendente dalle caratteristiche fisiche della memoria di massa I file vengono inclusi all’interno di directory (o cartelle, o cataloghi) In genere, le directory sono organizzate ad albero

30 La struttura ad albero

31 Organizzazione dei file
A ciascun utente è normalmente associata una directory specifica, detta home directory Il livello di protezione di un file indica quali operazioni possono essere eseguite da ciascun utente Ciascun file ha un pathname (o nome completo) che include l’intero cammino dalla radice dell’albero Il contesto di un utente all’interno del file system è la directory in cui correntemente si trova

32 Gestione delle periferiche
Sono meccanismi software a cui è affidato il compito di trasferire dati da e verso le periferiche Consentono ai programmi applicativi di leggere o scrivere i dati con primitive di alto livello che nascondono la struttura fisica delle periferiche e.g., nel sistema Unix le periferiche sono viste come file speciali

33 Gestione dei processi Il SO multiprogrammato e multiutente si occupa di gestire l’esecuzione concorrente di più programmi utente La CPU del calcolatore (o le CPU nei sistemi multiprocessore) deve essere distribuita in maniera opportuna fra i programmi da eseguire Ogni programma eseguito ha a disposizione una macchina virtuale realizzata dal SO che ne consente l’esecuzione come se la CPU del calcolatore fosse interamente dedicata a esso

34 Che cosa è un processo per il SO?
Processo ≠ programma ! Processo = esecuzione di un programma, composto da: codice eseguibile (il programma stesso) dati Lo stesso programma può essere associato a più processi: Un programma può essere scomposto in varie parti e ognuna di esse può essere associata a un diverso processo Lo stesso programma può essere associato a diversi processi quando esso viene eseguito più volte, anche simultaneamente

35 Processi e strutture dati
Ad un processo sono associate le seguenti strutture dati: Uno o più segmenti di codice Uno o più segmenti di memoria dati I descrittori di eventuali risorse in uso (file, finestre, periferiche, ecc.) Uno o più thread Un processo consta di tre zone di memoria chiamate regioni: dati, codice e stack

36 Ambiente di esecuzione
L’ambiente di esecuzione di una funzione (variabili e parametri formali) viene creato al momento della chiamata e rilasciato quando la funzione termina In una sequenza di chiamate, l’ultima chiamata è la prima a terminare La zona di memoria di lavoro che contiene l’ambiente di esecuzione di un sottoprogramma è gestito con la logica di una pila (stack) L’ultimo elemento inserito nello stack è il primo ad essere estratto Logica LIFO (Last In First Out)

37 Record di attivazione Alla chiamata di una funzione
si alloca uno spazio di memoria (record di attivazione) in cima allo stack per contenere i parametri formali e le variabili locali lo spazio viene rilasciato quando la funzione termina Il record di attivazione contiene: L’ambiente locale della funzione L’indirizzo di ritorno al chiamante Funzionamento: Ad ogni attivazione viene allocato un record di attivazione Al termine dell’attivazione il record viene rilasciato (l’area di memoria è riutilizzabile) La dimensione del record di attivazione è già nota in fase di compilazione Il numero di attivazioni della funzione non è noto Il primo record di attivazione è destinato al main()

38 Lo stack Nello stack, i record vengono allocati “uno sopra l’altro”; il primo record dello stack è relativo all’ultima funzione attivata e non ancora terminata Lo stack cresce dal basso verso l’alto Stack pointer: registro della CPU che contiene l’indirizzo della cima della pila Una parte della RAM è destinata a contenere lo stack Stack overflow: quando l’area della RAM destinata allo stack viene superata (troppi annidamenti di chiamate) SP 312 312 311 Operazione di inserimento: -incremento SP -scrittura in parola indirizzata da SP Operazione di estrazione: -lettura da parola indirizzata da SP -decremento SP 310 ... 303

39 Lo stato di un processo Lo stato del processo può essere distinto fra stato interno e stato esterno. Lo stato interno indica: la prossima istruzione del programma che deve essere eseguita; i valori delle variabili e dei registri utilizzati dal processo. Lo stato esterno indica se il processo è: in attesa di un evento, ad es. la lettura da disco o l’inserimento di dati da tastiera; in esecuzione; pronto per l’esecuzione, e quindi in attesa di accedere alla CPU.

40 Processo in esecuzione
Stato di un processo (1) Processo in esecuzione Processo pronto Processo in attesa Inizio esecuzione Primo processo pronto - Fine quanto di tempo - Interruzione esterna Interruzione interna Evento esterno atteso - Fine esecuzione - Abort per errore In esecuzione: assegnato al processore ed eseguito da esso Pronto: può andare in esecuzione, se il gestore dei processi lo decide In attesa: attende il verificarsi di un evento esterno per andare in stato di pronto

41 Processo in esecuzione
Stato di un processo (2) I processi appena creati sono messi in stato di pronto Il kernel decide quale processo pronto mettere in stato di esecuzione Il kernel assegna il processore a un processo per un quanto di tempo Coda dei processi pronti Round-robin Priorità dei processi Processo in esecuzione Processo pronto Processo in attesa Inizio esecuzione Primo processo pronto - Fine quanto di tempo - Interruzione esterna Interruzione interna Evento esterno atteso - Fine esecuzione - Abort per errore P2 P1

42 Processo in esecuzione
Stato di un processo (3) Il processo in esecuzione passa in stato di attesa se richiede operazioni di I/O (interruzione interna) Corrisponde alla esecuzione dell’istruzione “chiamata supervisore” (SuperVisor Call, SVC) Processo in esecuzione Processo pronto Processo in attesa Inizio esecuzione Primo processo pronto - Fine quanto di tempo - Interruzione esterna Interruzione interna Evento esterno atteso - Fine esecuzione - Abort per errore P2 P1

43 Stato di un processo: cambio contesto
Processo in esecuzione Processo pronto Processo in attesa Inizio esecuzione Primo processo pronto - Fine quanto di tempo - Interruzione esterna Interruzione interna Evento esterno atteso - Fine esecuzione - Abort per errore P2 Cambiamento di contesto: Salvare il contesto di P1 nel suo descrittore di processo Il processore è ora libero, un altro processo passerà in esecuzione P1

44 Processo in esecuzione
Stati di un processo (5) Quando l’operazione di I/O è finita viene generata una interruzione esterna Il processo in esecuzione viene interrotto Il kernel esegue il gestore delle interruzioni che esegue le azioni opportune P1 può tornare pronto Il kernel sceglie quale processo mandare in esecuzione Processo in esecuzione Processo pronto Processo in attesa Inizio esecuzione Primo processo pronto - Fine quanto di tempo - Interruzione esterna Interruzione interna Evento esterno atteso - Fine esecuzione - Abort per errore P2 P1

45 Stato di un processo: Preemption
Preemption: quando il quanto di tempo è scaduto, il kernel interrompe il processo in esecuzione Si cerca di garantire un uso equo della CPU a tutti i processi Processo in esecuzione Processo pronto Processo in attesa Inizio esecuzione Primo processo pronto - Fine quanto di tempo - Interruzione esterna Interruzione interna Evento esterno atteso - Fine esecuzione - Abort per errore P2 P1

46 Pausa

47 Gestione della memoria
La gestione concorrente di molti programmi applicativi comporta la presenza di molti programmi in memoria centrale Il SO offre a ogni programma applicativo la visione di una memoria virtuale, che può avere dimensioni maggiori di quella fisica Per gestire la memoria virtuale il SO dispone di diversi meccanismi: Rilocazione Paginazione Segmentazione

48 Il SO e la gestione della memoria
E’ un modello lineare La memoria è una sequenza di celle numerate da 0 fino a un valore massimo M Il numero che identifica ogni cella è detto indirizzo La dimensione della cella dipende dal tipo di calcolatore (per noi sarà di 8 bit, ossia un byte) MEMORIA 1 2 M

49 Spazio di indirizzamento
Lo spazio di indirizzamento è il numero massimo di indirizzi possibili della memoria Dipende dalla lunghezza in bit degli indirizzi Se gli indirizzi sono lunghi N bit, lo spazio di indirizzamento è di 2N celle Tutte le celle devono essere indirizzabili (cioè devono avere un indirizzo), quindi Dimensione memoria  Spazio indirizzamento Le dimensioni della memoria sono generalmente espresse in: KB (Kilobyte) = 210 byte MB (Megabyte) = 220 byte GB (Gigabyte) = 230 byte

50 Memoria virtuale vs. fisica
La memoria virtuale e quella fisica non coincidono per i seguenti motivi: nella memoria fisica risiedono contemporaneamente il SO e i diversi processi conviene mantenere nella memoria fisica una sola copia di parti di programmi che sono uguali in diversi processi (memoria condivisa) Per evitare la frammentazione della memoria (spazi vuoti in memoria inutilizzabili) è utile allocare i programmi suddividendoli in pezzi La memoria fisica può essere insufficiente a contenere la memoria virtuale di tutti processi Gli indirizzi contenuti in un programma eseguibile sono indirizzi virtuali e fanno riferimento alla memoria virtuale La memoria effettivamente presente nel calcolatore è la memoria fisica e i suoi indirizzi sono detti indirizzi fisici

51 Fonti per lo studio + Credits
Il Sistema di elaborazione, Slide Info B, M. D. Santambrogio Informatica arte e mestiere, S. Ceri, D. Mandrioli, L. Sbattella, McGrawHill Capitolo 2 Introduzione ai sistemi informatici, D. Sciuto, G. Buonanno, L. Mari, 4a Ed, McGrawHill Capitolo 1, 2, 5 The Art & Craft of Computing, S. Ceri, D. Mandrioli, L. Sbattella, Addison-Wesley Approfondimenti Struttura e progetto dei calcolatori, D. A. Patterson, J. Hennessy, 3a Ed, Zanichelli Capitolo 1, 2 Credits Prof. G. Buonanno e D. Sciuto, LIUC

52 Rilocazione Rilocazione: meccanismo di trasformazione da indirizzo virtuale (detto anche rilocabile) a fisico Statica: i nuovi indirizzi vengono calcolati al caricamento del programma in memoria Dinamica: ogni indirizzo viene calcolato al momento durante l’esecuzione Registro base Indirizzo virtuale (rilocabile) + Indirizzo calcolato (fisico)

53 Rilocazione: esempio MEMORIA PROCESSORE + RB 1000 PC 3 Registro base
999 1000 RB 1000 1001 1 processo in esecuzione 1002 2 1003 3 + 1004 PC 3 indirizzi fisici indirizzi virtuali

54 Problema della frammentazione
MEMORIA MEMORIA Sistema Operativo Sistema Operativo Processo S Processo P Processo P Processo S (1) Processo Q Processo Q Processo S (2) Processo R Processo R

55 Paginazione Si rinuncia ad avere una zona contigua della memoria fisica per ciascun processo La memoria virtuale del programma viene suddivisa in porzioni (pagine virtuali) di lunghezza fissa (pot. di 2, e.g., 4K) La memoria fisica viene divisa in pagine fisiche della stessa dimensione Le pagine virtuali di un programma vengono caricate in altrettante pagine fisiche, non necessariamente contigue

56 Paginazione: esempio MEMORIA MEMORIA FISICA VIRTUALE P
VIRTUALE Q dimensione pagina

57 Struttura degli indirizzi virtuali
Un indirizzo virtuale è costituito da un numero di pagina virtuale (NPV) e da uno spiazzamento (offset) all’interno della pagina indirizzo virtuale NPV offset

58 Struttura degli indirizzi fisici
E’ del tutto analoga: si hanno un numero di pagina fisica (NPF) e da uno spiazzamento (offset) all’interno della pagina indirizzo fisico NPF offset

59 Traduzione dal virtuale al fisico
indirizzo virtuale NPV offset traduzione NPF offset indirizzo fisico le pagine virtuali e quelle fisiche hanno la stessa dimensione, quindi l’offset è lo stesso

60 Esempio Spazio di indirizzamento virtuale:
indirizzi da 32 bit  232 indirizzi Dimensione di pagina: 4K parole (o celle)  212 byte (1 cella occupa 1 byte) Offset  numero di bit necessari per indirizzare una cella all'interno di una pagina = log2(dimensione_pagina)=12 Numero di pagine dello spazio di indirizzamento virtuale 232 / 212 = 220 pagine Spazio di indirizzamento fisico: 4M parole (o celle)  222 indirizzi Numero di pagine dello spazio di indirizzamento fisico 222 / 212 = 210 pagine

61 Esempio (segue) indirizzo virtuale NPV offset 20bit 12bit 10bit 12bit
NPF offset indirizzo fisico

62 La tabella delle pagine
E’ il meccanismo più semplice per la traduzione da virtuale a fisico indirizzo virtuale NPV = 0 offset NPV NPF 1 2 3 NPF offset indirizzo fisico C’è una tabella delle pagine per ciascun processo

63 Memory Management Unit
Per accelerare la traduzione da NPV a NPF si ricorre allora alla MMU La MMU è una memoria particolarmente veloce (memoria associativa) dalle dimensioni ridotte, contenente le informazioni per la traduzione da NPV a NPF delle pagine più utilizzate Visto che gli NPV e gli NPF si riferiscono alle pagine di un processo, ogni volta che il processo in esecuzione cambia la MMU dovrebbe essere tutta riscritta Per evitare ciò si aggiunge una colonna che dice a quale processo appartengono le pagine e un registro che dice qual è il processo attualmente in esecuzione

64 Pagine residenti e non Durante l’esecuzione di un programma solo un certo numero delle sue pagine virtuali è caricato in altrettante pagine fisiche Tali pagine sono dette pagine residenti A ogni accesso alla memoria si controlla che all’indirizzo virtuale corrisponda una pagina residente, altrimenti si produce un interrupt di segnalazione di errore detto page-fault Il processo viene sospeso in attesa che la pagina richiesta venga caricata in memoria, eventualmente scaricando su disco una pagina già residente per liberare lo spazio necessario

65 La memoria cache Obiettivo:
Il problema della memoria: costo vs. prestazioni Obiettivo: fornire agli utenti una memoria grande e veloce fornire al processore i dati alla velocità con cui è in grado di elaborarli Problema: Il tasso di crescita nella velocità dei processori non è stato seguito da quello delle memorie Tempo di accesso alle SRAM (Static Random Access Memory): 2 - 25ns al costo di $100 - $250 per Mbyte. Tempo di accesso alle DRAM (Dynamic Random Access Memory): 60-120ns al costo di $5 - $10 per Mbyte. Tempo di accesso al disco: da 10 a 20 million ns al costo di $ $0.20 per Mbyte.

66 Prestazioni di processori e cache
60%/anno (2X/1.5yr) 1 10 100 1000 1980 1981 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 DRAM CPU 1982 Divario di prestazioni Processore-Memoria (cresce 50% / anno) Prestazioni Legge di Moore DRAM 9%/anno (2X/10yr) Tempo

67 Gerarchia di memoria Tipicamente costituita da
29/03/2017 Tipicamente costituita da registri contenuti nella CPU (qualche KB) cache (da circa 32KB a circa 4096KB) memoria principale (da circa 512MB a qualche GB) dischi fissi (da qualche centinaio di GB a qualche TB) nastri magnetici e dischi ottici (da qualche centinaio di GB a qualche TB per ogni supporto) Man mano che ci si sposta verso il basso nella gerarchia aumenta il valore dei parametri fondamentali: aumenta il tempo di accesso; aumenta la capacità di memorizzazione; ma diminuisce il costo per bit. Introduzione ai sistemi informatici

68 Una gerarchia di memoria
29/03/2017 Introduzione ai sistemi informatici

69 Caratteristiche dei diversi livelli
29/03/2017 Livello Capacità Tempo di accesso Transfer rate (GB/s) Registri ~ 1 KB ~ 0.2 ns (1 ciclo di clock) Cache I livello ~ 32 KB ~ 0.4 ns (2/4 cicli di clock) Cache II livello ~ 1/2 MB ~ 1/2 ns (5/10 cicli di clock) ~ 100 Cache III livello ~ 2/8 MB ~ 5 ns ~ 50 Memoria centrale ~ 2/8 GB ~ 50 ns (1ª parola richiesta) ~ 10 ns (parole successive) ~ 5/10 Dischi interni > 300 GB ~ 10 ms 0.15/0.6 Dischi esterni ~ 0.05 Introduzione ai sistemi informatici

70 Località E’ la proprietà fondamentale dei programmi che rende possibile sfruttare l’organizzazione gerarchica della memoria per incrementarne le prestazioni Località: in ogni istante di tempo un programma accede a una parte relativamente piccola del suo spazio di indirizzamento Località temporale: se un dato viene referenziato in un dato istante, è probabile che lo stesso dato venga nuovamente richiesto entro breve Località Spaziale: Se un dato viene utilizzato in un dato istante, è probabile che dati posizionati in celle di memoria adiacenti vengano

71 Cache Memoria al livello superiore della gerarchia
Sfruttare il principio di località dei programmi e tenere in memoria cache i dati utilizzati più di recente Obiettivo: fornire dati al processore in uno o due cicli di clock Memoria cache: veloce nei tempi di accesso ma di dimensioni ridotte

72 Gerarchia di memoria Si considerino solo due livelli di gerarchia
Il processore richiede un dato al sistema di memoria: La richiesta viene prima inviata al livello di memoria superiore (più vicino al processore) Se il dato non è presente nel livello superiore (fallimento della richiesta) la ricerca viene effettuata nel livello inferiore Livello inf di memoria Al Processore Livello sup. di memoria blocco X Dal Processore blocco Y

73 Gerarchia di memoria: definizioni
Hit (successo): dati presenti in un blocco del livello superiore (esempio: Blocco X) Hit Rate (“%” di successo): numero di accessi a memoria che trovano il dato nel livello superiore sul numero totale di accessi Hit Time (tempo di successo): tempo per accedere al dato nel livello superiore della gerarchia

74 Gerarchia di memoria: definizioni
Miss (fallimento): i dati devono essere recuperati dal livello inferiore della memoria (Blocco Y) Miss Rate (“%” di fallimento) = 1 - (Hit Rate) Miss Penalty (tempo di fallimento): tempo per determinare il MISS + tempo necessario a sosituire un blocco nel livello superiore + tempo per trasferire il blocco al processore tipicamente si ha: Hit Time << Miss Penalty Tempo medio di accesso in presenza di memoria cache: semplicemente la media pesata con le probabilità HitTime*HitRate + MissRate*MissPenalty

75 Cache e principio di località
Le memorie cache sfruttano il principio di località spaziale trasferendo dal livello inferiore della gerarchia più dati di quanti non ne siano stati strettamente richiesti (blocco o linea di cache) La località temporale viene sfruttata nella scelta del blocco da sostituire nella gestione di un fallimento (es: sostituire il blocco a cui si è fatto accesso meno di recente)


Scaricare ppt "Process synchronization"

Presentazioni simili


Annunci Google