La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Convegno Virtualizzare il desktop LICT si trasforma in Utility Rodolfo Boraso CSP – Innovazione nelle ICT 20 maggio 2008.

Presentazioni simili


Presentazione sul tema: "Convegno Virtualizzare il desktop LICT si trasforma in Utility Rodolfo Boraso CSP – Innovazione nelle ICT 20 maggio 2008."— Transcript della presentazione:

1 Convegno Virtualizzare il desktop LICT si trasforma in Utility Rodolfo Boraso CSP – Innovazione nelle ICT 20 maggio 2008

2 2 CSP è una società consortile senza fini di lucro Laboratorio di ricerca accreditato presso il MIUR, certificato UNI EN ISO 9001:2000 La compagine societaria del CSP

3 3 Il Bilancio

4 4 Il Personale CSP è composto al 31 marzo 2008 da: 43 dipendenti I dipendenti di sesso femminile sono 17 I laureati sono 32 Letà media è pari a 35 anni Nel 2007 in CSP hanno operato complessivamente 100 persone, oltre ai dipendenti, di cui: 19 borsisti (+2 Borse Lagrange) 8 stagisti 9 tesisti 62 tra collaboratori a progetto, occasionali e professionali

5 5 Le attività nel diverse attività svolte oggetto di offerta di cui: 54 per la Pubblica Amministrazione Locale (di cui 31 per Regione Piemonte, 19 per CSI Piemonte, 4 per la PA locale) 6 per altre Pubbliche Amministrazioni 20 per imprese di cui 10 locali 7 su bandi di ricerca e sviluppo di cui 5 esteri, 1 nazionale e 1 regionale 10 per Enti di ricerca e non profit tutti locali

6 6 Una terza fase per CSP Prima Fase 1989 – 1998: Centro per il supercalcolo del Piemonte Seconda Fase 1998 – 2007: Centro per la sperimentazione di tecnologie innovative Terza Fase dal 2008 CSP struttura di innovazione e ricerca della PA piemontese che agisce come Organismo di ricerca secondo quanto previsto dalla Disciplina comunitaria relativa a Innovazione e R&S

7 Le competenze tecnologiche del CSP al servizio di progetti di innovazione su temi strategici quali: -La Mobilità (ad es. il progetto VICSUM in collaborazione con Politecnico, CRF e GTT sulla C2C e C2I communication) -LAmbiente (ad es. il progetto sui precursori sismici in alta montagna realizzato con il contributo di ricercatori del settore) -LAereospazio (ad es. con la partecipazione al Bando sulla piattaforma tecnologica con 2 diverse proposte in collaborazione con il Politecnico di Torino e lassociazione ITHACA) -La Sanità (ad es. con lo sviluppo delliniziativa del Laboratorio promosso da CSI Piemonte) -Il Socio-assistenziale (ad es. con la proposta comune CSI-CSP e ISMB su sistemi avanzati di localizzazione di soggetti fragili) -LIndustria creativa (ad es. con la partecipazione al progetto europeo CREATE con Regione Piemonte e Politecnico) Competenze al servizio di temi strategici

8 Le competenze: Media & Network Convergence (NMC) Descrizione generale Valorizzazione dei contenuti tramite la convergenza di reti e media digitali Keywords IpTV, MobileTV, Personal Video Recording, Pod/Vodcasting, Streaming, Set-top-box, New format, Innovative Channel, DVB-x, DRM, WaterMarking

9 Descrizione generale Reti IP di nuova generazione per il trasporto di dati, voce e video su tecnologie interoperabili e abilitate al controllo di qualità Keywords All-IP, Scalable Network structure, Wireless and mobile networks, Ad- hoc networking, Safety Networks, C2C, M2I, Security Network, WLL, IP over PowerLine, Mesh & Sensor Networks Le competenze: Future Generation Networks (FGN)

10 Descrizione generale Framework per la realizzazione e distribuzione di servizi in rete IP Keywords SOA, GRID, M2M, SAN, Agenti intelligenti, ECM, DHPC, ISCSI, Security Middleware, Clearing Houses, LBS, CA&PKI Le competenze: Next Generation Services (NGS)

11 Descrizione generale Modelli di collaborazione e partecipazione per la valorizzazione di contenuti non strutturati (User generated content) Keywords Knowledge management, usabilità, accessibilità, paradigma 2.0, Digital content, Interface Design Le competenze: Social Computing (SC)

12 Obiettivi -Lindividuazione dei modelli di utilizzo, delle soluzioni e delle tecnologie che meglio si prestano ad un modello distribuito di erogazione dei contenuti e dei servizi. -Esigenze di operatività. -Utilizzo di Internet come piattaforma: costruire applicazioni in modo tale che sfruttino leffetto della rete e migliorino quanto maggiore è il numero di utenti che le usano – OReilly. Attività di scouting tecnologico sulla virtualizzazione

13 Esigenza di operatività legata alla fornitura dei servizi. Si sta evidenziando un nuovo approccio che tende a migliorare i componenti, i sistemi e le relazioni tra questi al fine di garantire alcuni aspetti e funzionalità oggi invece delegate alloperato delluomo e alle procedure operative: - Dependability dei sistemi. - Autonomic computing. - Autonomic network. - Virtualizzazione intesa come disaccoppiamento delle istanze di oggetti e componenti dal loro supporto fisico (reti, sistemi e storage). Alcune considerazioni..

14 14 Dependability la dependability di un sistema informativo è la capacità di fornire un servizio su cui si può fare affidamento in maniera giustificata

15 15 Attributi della dependability - Availability: capacità di fornire un servizio corretto quando richiesto. - Reliability: capacità di fornire con continuità un servizio corretto. - Safety: lassenza, nellerogazione di un servizio, di conseguenze catastrofiche sugli utenti e/o sullambiente esterno. - Confidentiality: assenza di accessi non autorizzati alle informazioni. - Integrity: assenza di alterazioni sullo stato del sistema. - Maintainability: predisposizione a ricevere manutenzioni e modifiche.

16 16 Autonomic computing - Termine coniato nel 2001 dal Paul Horn, vice presidente della ricerca IBM. - Creare sistemi in grado di gestirsi con modalità autonome. - Articolo The vision of Autonomic Computing: un mondo avviato verso una crescita, in numero e tipologia, di ogni genere di apparati in grado di interconnettersi tra loro ma senza il controllo necessario per manutenere la mole dei nuovi collegamenti generati. - Superare la complessità crescente dovuta ai modelli computazionali del Pervasive Computing e oggi quelli del Cloud Computing. - Gestione autonoma dei nodi che andranno a comporre i sistemi informativi del futuro.

17 17 Autonomic Computing: 4 obiettivi - Auto-configurazione degli elementi del sistema e della rete: abilitare nei sistemi la capacità di adattarsi alle mutate condizioni modificando le proprie configurazioni. - Auto-ottimizzazione dei processi: monitorare il proprio stato e le performance per un tuning proattivo. - Auto-protezione:integrare il sistema con lintelligenza per il riconoscimento degli attacchi informatici o eventuali problemi come laumento della temperatura. - Auto-riparazione dai malfunzionamenti: capacità di riconoscere eventuali deviazioni del comportamento desiderato e applicare azioni per riportare il sistema alla normalità. Autonomic computing è quella disciplina che studia come dotare i vari componenti hardware e software di funzionalità che li mettano in grado di misurare il proprio stato di salute, decidere eventuali azioni da intraprendere ed eseguire le azioni necessarie per ripristinare lo stato di funzionamento ottimale (IBM).

18 18 Gestione dinamica delle risorse - Utility - Linfrastruttura di utility deve avere vari centri di produzione della risorsa dislocati in modo intelligente sul territorio e collegati in una rete di distribuzione la cui topologia può essere ri-programmata in modo da far fronte al malfunzionamento di uno dei centri di produzione. - Sarebbe molto più efficiente se le applicazioni fossero disaccoppiate dalla sottostante infrastruttura hardware/software/middleware, potendo tutte attingere con granularità alle risorse (potenza elaborativa, storage, comunicazioni) secondo il bisogno del momento, evitando sia gli sprechi dovuti alla sottoutilizzazione sia le cattive prestazioni dovute alleventuale scarsità delle risorse ad essa dedicate - > Virtualizzazione.

19 19 Virtualizzazione per la Dependability. - IEEE Technical Committee on Dependable Computing and Fault Tolerance. - International Conference on Dependable Systems and Networks (DSN 2007). Attività svolte allinterno dellIEEE e recenti presentazioni ai convegni specializzati sulla dependability del sistemi hanno confermato linteresse per la virtualizzazione dei sistemi operativi come un nuovo strumento per lintroduzione di una maggiore flessibilità nelle architetture dei sistemi informatici.

20 20 Virtualizzazione: Live Migration I concetti di base si concentrano sulla virtualizzazione al fine di raggiungere unastrazione sufficiente a delineare la configurazione dellhardware sottostante e consentendo lhosting di macchine virtuali multiple sulle macchine fisiche, evidenziando aspetti come il logging- replay delle VM. - Static migration: fermo la VM e copio su altro host la VM utilizzando comandi del sistema operativo. - Cold migration: sospendo la VM utilizzando strumenti del VMM, copio limmagine su altro VMM per poi riprendere lesecuzione. - Live migration: il VMM muove listanza della VM in esecuzione da un host fisico ad un altro host fisico. La live migration consente il bilanciamento del carico dinamico di un pool di risorse virtualizzate, la manutenzione dellhardware, il failover dinamico evitando quindi possibili tempi di fermo del servizio.

21 21 VDA - Virtual Desktop Architecture VDA è un modello duso che facilita il disaccoppiamento nellarchitettura di elaborazione tra linterfaccia utente e la sua elaborazione in remoto. - Virtualizzazione del desktop. - Utilizzo un protocollo di desktop remoting. - Una macchina virtuale singola per ogni utente. - Utilizzo le architetture multi-core e i sistemi operativi che sfruttano la virtualizzazione in hardware. - Isolamento dellambiente di esecuzione con livelli raggiungibili solo con una installazione in hardware. - Nuovo modello "pay-per-use" dei software come servizi.

22 22 VDA e Green Computing 1/3 Thin Client - Separazione delle funzioni di input/output dal calcolo vero e proprio; si rende quindi il sistema a disposizione dellutente estremamente leggero, essenziale e indipendente dalla piattaforma di calcolo. - Vecchio concetto dellinformatica (mainframe). - Riuso di computer obsoleti e prolungamento del ciclo di vita del computer, da 3-4 anni al più fisiologico 6-7 anni con una conseguente riduzione dellimpatto ambientale (in Italia vengono prodotti 14 Kg annui pro capite di rifiuti elettrici ed elettronici).

23 23 VDA e Green Computing 2/3 Consumi energetici di un Thin Client (dati UniTre) a PC consumes roughly 100/150 watts (more or less) - a Thin Client is in the 5/10 watts ball-park - a server blade consumes about 300 watts to support around 15 users (assumption). - so the difference between a PC and a Virtual Client implementation is: watts (PC) – 7 watts (tc) – 20 watts (300 watts / 15 users) = roughly 100 watts at an average energy cost of 0.10 per hour (assuming the client device is on 24/24) you would be saving: - 82 every year - Per user !

24 24 VDA e Green Computing 3/3 Lutilizzo delle reti come strumento di sostenibilità. - Riduzione di emissioni e consumi. - Minori spostamenti. - Minori emissioni. - Minori consumi. - Minori spese. - Maggiore produttività/ora. - Minore traffico. - Miglior qualità della vita.

25 25 Banda larga La banda larga diventa una necessità per: - La movimentazione delle macchine virtuali. - Leffettuazione di snapshot. - Laccesso a repositories di dati remoti di immagini virtuali. - Limplementazione di file system distribuiti a cui le macchine virtuali attingono i dati per lelaborazione. Si ipotizza che con la disponibilità dei processori a core, larchitettura di rete di riferimento debba diventare linfrastruttura a 100 Gigabit Ethernet.

26 26 Scenari duso su uninfrastruttura di rete geografica

27 27 Intel Micro 2015

28 28 Intel Micro 2015 Architetture future dei processori - Integrazione di transistor fino a decine di miliardi su un singolo chip. - Disponibilità di un parallelismo a tutti i livelli gestito attraverso una struttura ridondante di thread. - Strutture interne al chip dedicate a funzionalità speciali come lelaborazione grafica e real-time. - Memoria on-chip riconfigurabile e condivisa da gruppi di core, da differenti sistemi operativi e da hardware specializzato oltre che da micro-kernel. - Core interconnessi da link ad alta velocità per trasferire i dati tra gruppi di core e allinterno dei gruppi stessi. - Virtualizzazione con meccanismi in grado di fornire livelli di astrazione alle applicazioni e ai sistemi operativi.

29 29 Intel Virtualization Technology for Connectivity Intel ha introdotto le seguenti strategie per la virtualizzazione dellI/O con un supporto in hardware ed una maggiore capacità dellhypervisor di governare il sistema di gestione dei sistemi guests, diminuendo il numero di righe di codice necessarie e diminuendo il potenziale impatto dellesecuzione di software aggiuntivo sulle performance. - Virtual Machine Device Queues (VMDq) - Single Root I/O Virtualization (SR-IOV).

30 30 Peculiarità di KVM vs XEN Xen will never be part of Linux Anthony Liguori, Software Engineer at Linux Technology Center (Xen e KVM developer): Linux distributions ship Xen today and by default install a Linux guest (known as domain-0) and do their best to hide the fact that Xen is not a part of Linux. They've done a good job, most users won't even notice that they are running an entirely different Operating System. The whole situation is somewhat absurd though. It's like if the distributions shipped a NetBSD kernel automatically and switched to using it when you wanted to run a LAMP stack. We don't ship a plethora of purpose-built kernels in a distribution. We ship one kernel and make sure that it works well for all users. That's what makes a Linux distribution Linux. When you take away the Linux kernel, it's not Linux any more

31 31 CSP- Innovazione nelle ICT Sede legale e operativa Via Livorno, 60 Torino Tel Fax Seconda sede operativa Villa Gualino Viale Settimio Severo 65 Torino


Scaricare ppt "Convegno Virtualizzare il desktop LICT si trasforma in Utility Rodolfo Boraso CSP – Innovazione nelle ICT 20 maggio 2008."

Presentazioni simili


Annunci Google