Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.

Slides:



Advertisements
Presentazioni simili
Fisica Subnucleare – Esperimento ATLAS
Advertisements

E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Computing: Attività 2009 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Stato del Tier2 di Atlas a Napoli Il ruolo dei Tier2 in Atlas La Federazione Italiana dei Tier2 Il Tier2 di Napoli Napoli, 21 Dicembre 2006 – A.Doria.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Pro Recruiting La piattaforma per la selezione
Alessia Tricomi Università & INFN Catania
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
ATLAS Distributed Analysis Lamberto Luminari CSN1 – Roma, 16 Maggio 2006.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
FESR Trinacria Grid Virtual Laboratory Rosanna Catania Rita Ricceri INFN Catania 25 Luglio 2006 Grid Monitoring: GridICE – bacct - lsload.
Calcolo a LHC CB 23 maggio 2011 Quadro generale Gare CPU e disco.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste 2011.
Utilizzo della VO di theophys per il calcolo lattice QCD G. Andronico M. Serra L. Giusti S. Petrarca B. Taglienti.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
Proposta per una cache distribuita a livello italiano ALESSANDRO DE SALVO (RM1) TOMMASO BOCCALI (PI)
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
ANALISI DISTRIBUITA IN ATLAS L’esperienza degli utenti Attilio Picazio Università di Napoli “Federico II” – INFN Napoli 18/05/11Attilio Picazio - Workshop.
1 referee-BaBar CSN I, Roma Gennaio 2008 RELAZIONE DEI REFEREE DI BaBar e SuperB M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo),D. Pedrini
11 Richieste di banda Anno 2010 T.Ferrari, M.Morandin CCR, Roma, 30 settembre 2009.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 5 settembre 2013.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
KLOE - Referee Paolo Checchia, Luca Lista, Ezio Menichetti, Pierluigi Paolucci con l’aiuto sostanziale di Luca dell’Agnello, Mauro Morandin CSN1.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
Gianpaolo Carlino Bologna, 6 Marzo 2007 Stato dei Tier-2 Italiani di ATLAS Attività nei Tier-2 Attività della Federazione dei Tier-2 Risorse disponibili.
FESR Trinacria Grid Virtual Laboratory Workload Management System (WMS) Muoio Annamaria INFN - Catania Primo Workshop TriGrid VL Catania,
Calcolo ALICE1 Calcolo ALICE: stato e richieste Domenico Elia e Massimo Masera Referee Calcolo LHC / Pisa, Riunione con Referee Calcolo LHC Pisa,
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
La gestione della rete e dei server. Lista delle attività  Organizzare la rete  Configurare i servizi di base  Creare gli utenti e i gruppi  Condividere.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
CSN1 – Torino, 17 Maggio 2010 G. Carlino – ATLAS: Calcolo ATLAS Calcolo LHC 2011 Attività di TeV Attività di TeV Risorse.
Stato Computing ATLAS Gianpaolo Carlino INFN Napoli
Transcript della presentazione:

Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing Gli sviluppi del CM Gli sviluppi del CM Gianpaolo Carlino INFN Napoli Parma, 22 Settembre 2010

G. Carlino – ATLAS, Attività di 7 TeV 2 LHC data 7 TeV Al 30 Agosto si sono raccolti ~ 3.5 pb -1 Luminosita’ di picco = 1.03x10 31 cm -2 s -1 (27 Agosto)

3 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 2010 LHC – Data taking Logical Data: dataset registrati Physical Data: comprende tutte le repliche distribuite in GRID Event sizeLogic. dataPhys. data Tot. Volume4.6 PB14 PB RAW1.6 MB2.0 PB ESD1.0 MB1.9 PB6.9 PB AOD0.1 MB110 TB2.0 PB dESD330 TB4.1 PB RAW Event Size

4 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 2010 LHC – Data Distribution Trasferimenti: Tier-0  Tier-1  Tier-2 Throughput medio di progetto: ~2 GB/sec (commissioning fino a 3 GB/s) Raggiunti picchi ~10 GB/sec nella campagna di reprocessing Efficienza di trasferimento: 100% Data and MC reprocessing MB/s per day 6 GB/s Start of 7 TeV data-taking Start of p/bunch operation ~2 GB/s

5 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 2010 LHC – Data Distribution in IT o AOD = 100% o RAW = custodial + backup share (5% + 5%) o ESD = 5% + 5% fino a luglio, poi 30% al CNAF per favorire l’analisi degli utenti o dESD = 100% ai Tier2 fino a luglio o ESD e dESD ai Tier2 con sottomissione dinamica da agosto aprilemaggiogiugno luglio Throughput totale in IT MB/s per day 200 MB/s

6 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Attività in ATLAS Produzione Simulazione, Ricostruzione, Reprocessing Analisi Ganga, Pathena 7TeV data UAT09 Numero medio di job con Panda Sep 2009 – Sep 2010 Distributed Analysis Highlights :  Data are distributed to 70+ sites  100 users per day accessing data  April-Sep:  ~ 22 M successful analysis jobs.  > 150 billion events analysed Uso significativo della Grid per l’analisi. Uso “reale” molto superiore degli stress test effettuati durante il commissioning

Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 7 Uso risorse in Italia Uso delle CPU nella Grid per “Country” nei Tier1 e Tier2 (EGEE portal) Numero totale di successful job (Analisi + Produzione): Aprile – Settembre 2010 (ATLAS dashboard) VO ATLAS only

Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 8 Uso risorse al CNAF Uso delle CPU nella Grid nei Tier1 per tutte le VO LHC (EGEE portal)

Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 9 Uso risorse al CNAF Monitor CNAF CPU 2010-INo ProductionCPU 2010-IIInizio Analisi Risorse ATLAS al CNAF: Disponibili (03/10 – 09/10): 8700 HS06 Pledge 2010 (09/10) : HS06 Reprocessing

10 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Uso risorse nei Tier2 Uso delle CPU nella Grid per i Tier2 Italiani per tutte le VO LHC: Gennaio – Luglio 2010

11 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Analisi Distribuita Perché la percentuale dell’ Italia è cosi bassa? 1.Le CPU sono sature e le risorse 2010 saranno in attività solo a dicembre 2.in Italia c’è ancora un utilizzo significativo del WMS (non presente in queste percentuali) 3.usiamo il Tier1 per l’analisi solo da agosto (solo UK non usa il Tier1) 4.al momento il formato più popolare è l’ESD, più completo e adatto per lo studio delle performance gli utenti italiani mandano i loro job nelle altre cloud dove sono i dati il disco si riempie di dati inutili User Analysis Successful Job - PanDA Backend Era necessario modificare il modello di Analisi e di replica dei dati. Da agosto nuovo modello in fase di test in 3 clouds tra cui l’ Italia

12 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Analisi Distribuita Job di Analisi con Panda in Italia non viene riportato l’uso del WMS comunque significativo in Italia nei Tier2 ~50% delle risorse per l’analisi (evidente dall’accounting di giugno in assenza di produzione) Esempio di job running su un Tier2 nell’ultimo mese codice colori: Produzione Analisi WMS Analisi Panda Analisi Panda ruolo italiano (gli italiani vengono mappati sia su panda che su panda/it)

13 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 5 mesi di presa dati. Sufficiente esperienza per una valutazione critica del CM La griglia sembra funzionare scala oltre i livelli testati nelle varie fasi di commissioning gli utenti stanno familiarizzando con i tool di analisi e gestione dei dati, selezionando quelli migliori (panda vs. WMS), sono mediamente soddisfatti anche se ovviamente vorrebbero efficienza 101% e risorse infinite Critiche negli anni al nostro CM richiesta eccessiva di spazio disco proliferazione del formato dei dati eccesso di repliche dei dati Superamento dei punti deboli accounting dell’accesso ai dati: determinazione della loro popolarità cancellazione automatica dei dati meno popolari replica dinamica ai Tier2 solo dei dati utilizzati dagli utenti IL CM – analisi critica e sviluppi

14 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Accounting dell’accesso ai dati Alla base del sistema di cancellazione delle repliche Fornisce una statistica dei formati più utilizzati (popolari) per l’analisi Fornisce una statistica dell’uso dei siti Fornisce una statistica dei tool di analisi più usati ESD formato decisamente più popolare necessario per molti tipi di analisi di performance e detector in alcuni casi è un approccio “conservativo” degli utenti che, in dubbio, preferiscono utilizzare formati più completi non può scalare con la luminosità e il numero di utenti Gruppi di Fisica e Performance Migliorare il contenuto dei formati di dati skimmati Computing Cancellare i dati non (più) utilizzati (data deletion system) Diminuire il numero di repliche di dati trasferendo solo i dati richiesti dagli utenti (sistema di repliche dinamico)

15 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Data deletion ~ 30% dei siti è overfull, con ridotto spazio disco a disposizione I dataset meno popolari possono essere cancellati dopo essere stati replicati nei siti bisogna assicurare la custodialità prevista dal Computing Model permette di replicare sempre tutti i dati nuovi per l’analisi senza penalizzare le cloud più piccole risparmio significativo di spazio disco ATLAS usa un sistema automatico di cancellazione basato sulla classificazione dei dataset e la misura del numero di accessi custodial data: cancellabili solo se obsoleti (RAW, ESD o AOD prodotti nella cloud) primary data: cancellabili solo se diventano secondary (dati previsti dal CM) secondary data: solo questi possono essere cancellati se non popolari in base alla loro anzianità Cancellazione dei dati secondari meno popolari quando lo spazio disco occupato supera una soglia di sicurezza Permette una continua rotazione dei dati

16 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Evoluzione del Computing Model Perché replicare i dati se poi vengono cancellati? Attualmente si replicano milioni di file (spesso molto piccoli) replica in tutti i siti (70+) e solo in vengono acceduti stesso numero di repliche per ogni physics stream anche se il pattern d’accesso è diverso cancellazione dei dati meno popolari e sottoscrizione a mano di quelli più popolari Non esiste un metodo più intelligente? ATLAS sta studiando l’evoluzione del Computing Model verso un modello meno rigido che ottimizzi le risorse disponibili: riduzione del disco necessario e utilizzo di tutte le CPU idle il paradigma è invariato: i job vanno dove sono i dati ma, sfruttando l’efficienza del sistema di data management e le performance della rete, la replica dei dati è triggerata dai job stessi Panda Dynamic Data Placement Model (PD2PM)

17 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Tier-0 Tier-1 ……… Tier-2 ……… Nel modello MONARC (anni '90) ogni sito era connesso ad un solo sito del livello superiore e i dati venivano distribuiti gerarchicamente CM gerarchico originale (data push) Modello usato attualmente da ATLAS Funziona. Ma non ottimizza le risorse e non sfrutta appieno la rete oggi disponibile

18 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV CM gerarchico originale (data push)

19 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Tier-0 Tier-1 ……… Tier-2 ……… Nel modello Grid dinamico (anni 2010) i dati sono in parte distribuiti e in parte richiesti dal livello superiore. In prospettiva ogni sito è connesso a tutti i siti del livello superiore. CM dinamico (data pull) Modello in test attualmente nelle cloud US, UK e IT. La distribuzione dei dati ai Tier1 non cambia I Tier2 sono delle cache utilizzando il sistema di data deletion basato sulla popolarità dei dati

20 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Panda Dynamic Data Placement Model Modello di distribuzione dei dati basato sull’idea di considerare gli storage dei Tier2 come cache Oggi i job vanno verso i dati pre-placed nuovo modello più reattivo, PD2PM: nessun dato (o solo alcuni formati) pre-placed nei Tier2, stop alla replica automatica immutata la distribuzione dei dati nei Tier1 Panda esegue la replica dei dati verso i Tier2 quando c’è un job al Tier1 che li richiede i successivi job girano al Tier2 dove è stata eseguita e completata la replica clean up dei Tier2 quando lo storage è pieno basato sul sistema di popolarità il modello, nella sua fase finale, funzionerà collegando i Tier2 con i Tier1 di ogni cloud anche solo l’applicazione all’interno della singola cloud permette comunque di ottimizzare l’uso dello storage e delle CPU Questo modello è in fase di test in 3 cloud (US, FR e IT), bisogna valutare attentamente le performance prima di renderlo operativo e basare su di esso il nuovo CM test iniziale in USA che si avviava verso una catastrofe ultravioletta del disco dei Tier2 l’Italia ha iniziato il test a fine luglio appena è stata installata al CNAF la prima parte del disco 2010 ed è stata abilitata l’analisi utente aumentato lo share di ESD (formato più popolare d’analisi) al Tier1 al 30% interrotto il pre-placement automatico di ESD e dESD ai Tier2 promettente, ma richiede ancora molto studio, soprattutto per la nostra tipologia di Tier2

21 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Panda Dynamic Data Placement Model Il plateau non è ancora visibile a causa della piccola dimensione della cache

22 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV Modello ATLAS per i Tier3 ATLAS ha sviluppato un modello di Tier3 definendo le funzionalità e i tool specifici Analisi interattiva (Root, Proof) e sviluppo di codice Storage locale (ntuple) Molti siti già attivi in tutto il mondo e soprattutto in America, molto importanti per l’attività locale Tipologia Tier3: sito pienamente “grigliato” (tipologia più diffusa in ATLAS) piccola farm locale non “grigliata” per l’interattivo in Italia task force in alcuni proto-Tier3 (Genova, Roma3, Trieste/Udine) che ha portato avanti lo sviluppo del modello in base alle tipologie dei nostri centri utilizzo delle farm già esistenti nelle sezioni (p.es. farm INFN-GRID) la sperimentazione continua coinvolgendo sempre più strettamente gli utenti per arrivare ad un modello finale sarebbe molto utile un riconoscimento dell’importanza di questi siti I Tier3

Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 23 Conclusioni Le attività di computing nei 5 mesi di dati a 7 TeV hanno dimostrato che la griglia funziona e dal primo momento i dati sono stati analizzati con le tecniche dell’analisi distribuita Il Computing Model è sottoposto ad una analisi critica individuandone gli aspetti da migliorare. Alcune modifiche sostanziali già attuate. Tutti i siti italiani, Tier1 e Tier2, garantiscono un livello di affidabilità più che sufficiente e un efficiente utilizzo delle risorse Le risorse richieste nel 2011 garantiranno alla cloud italiana di confermare e aumentare la propria competitività