Le metodologie di studio del cervello: SYSTEMS BIOLOGY Alessia Stell 13.04.10
IPPOCRATE ipotizza che il cervello sia sede dell’intelli- genza IV secolo A.C ARISTOTELE considera il cervello come un meccanismo di “raffreddamento” del sangue. IV secolo A.C IPPOCRATE ipotizza che il cervello sia sede dell’intelli- genza MEDIOEVO Si studiano disturbi neurologici e psichiatrici (tra cui il mal d’amore) . During the 4th century BC Aristotle thought that, while the heart was the seat of intelligence, the brain was a cooling mechanism for the blood. He reasoned that humans are more rational than the beasts because, among other reasons, they have a larger brain to cool their hot-bloodedness. In the 4th cent. BC Hippocrates, believed the brain to be the seat of intelligence. During the Roman Empire, the Greek anatomist Galen dissected the brains of sheep, monkeys, dogs, swine, among other non-human mammals. He concluded that, as the cerebellum was denser than the brain, it must control the muscles, while as the cerebrum was soft, it must be where the senses were processed. Galen further theorized that the brain functioned by movement of animal spirits through the ventricles. Middle Ages: described a number of neurological and psychiatric disorders in detail (including love sickness) Studies of the brain became more sophisticated after the invention of the microscope 1674 Anton van Leeuwenhoek costruisce il primo microscopio
La nascita delle neuroscienze “La reazione nera” Studies of the brain became more sophisticated after the invention of the microscope and the development of a staining procedure by Camillo Golgi during the late 1890s that used a silver chromate salt to reveal the intricate structures of single neurons (initially named the black reaction (la reazione nera) by Golgi, but it became better known as the Golgi stain or later, Golgi method.). His technique was used by Santiago Ramón y Cajal and led to the formation of the neuron doctrine, the hypothesis that the functional unit of the brain is the neuron. 1889 - Santiago Ramon y Cajal argues that nerve cells are independent elements (As a child he was transferred between many different schools because of his poor behaviour and anti-authoritarian attitude. An extreme example of his precociousness and rebelliousness is his imprisonment at the age of eleven for destroying the town gate with a homemade cannon. He was an avid painter, artist, and gymnast. He worked for a time as a shoemaker and barber, and was well known for his pugnacious attitude.) Golgi and Ramón y Cajal shared the Nobel Prize in Physiology or Medicine in 1906 for their extensive observations, descriptions and categorizations of neurons throughout the brain. Santiago Ramon y Cajal. Autore delle ricerche sulla microstruttura del sistema nervoso centrale che portarono - lui per primo - a concepire i neuroni come entità singole che sono in contatto e si succedono l'una all'altra, Ramon y Cajal fece in effetti ben più di questo, dato che praticamente fondò, e a lungo perseguì da solo, la disciplina della neuroanatomia microscopica. The hypotheses of the neuron doctrine were supported by experiments following Galvani's pioneering work in the electrical excitability of muscles and neurons neuroni come entità singole che sono in contatto e si succedono l'una all'altra
Studio del cervello: UN APPROCCIO RIDUZIONISTICO Tradizionalmente, i neuro scienziati hanno affrontato l’enorme complessità del cervello attraverso un approccio di tipo riduzionistico: dividendo le regioni anatomiche e caratterizzando ciascun componente cellulare attraverso l’isolamento delle porzioni funzionali. break systems down into manageable parts for study.
Studio del cervello: UN APPROCCIO OLISTICO “lo studio delle interazioni e degli interscambi che avvengono a diversi livelli dell’informazione biologica” L’approccio più in voga degli ultimi anni, invece, è passato dall’essere quello di tipo “riduzionistico” ad un approccio di tipo olistico. approccio filosofico in cui viene considerato il principio di emergenza nell'applicare il metodo scientifico, spesso utilizzando un metodo ampiamente interdisciplinare o multidisciplinare. Questo approccio è in contrasto con la tradizione puramente analitica, che si propone di interpretare i sistemi complessi dividendoli nelle loro componenti e studiandone separatamente le proprietà. E’ nato quindi il concetto di Systems BIology, inteso come (dalle parole di Leroy Hood, presidente dell’istituto di Systems Biology in Seattle) “lo studio delle interazioni e degli interscambi che avvengono a diversi livelli dell’informazione biologica
Il confronto dei due approcci APPROCCIO RIDUZIONISTICO Focalizzato su pochi geni e sui loro prodotti proteici Si ottiene solo una comprensione parziale dei complessi meccanismi eziopatologici APPROCCIO SYSTEMS BIOLOGY I sistemi biologici vengono affrontati non più come insieme di entità separabili, ma come network di molecole interagenti, che si influenzano a vicenda Permette di comprendere la complessità di un sistema in termini di cambiamenti quantitativi e temporali.
Da dove deriva la complessità del nostro organismo? 25.000 geni codificanti , la mappatura completa del genoma umano ha permesso di stabilire che tutta la complessità degli organismi viventi è espressa poco più di 25.000 geni codificanti, circa gli stessi del topo e solamente il doppio di un verme; perciò questa complessità non deriva solamente dal numero dei componenti, ma soprattutto dalle molteplici interazioni che queste componenti sono in grado di generare. Il focus della ricerca si sposta quindi verso la comprensione delle interazioni tra gli elementi, che siano geni, proteine, cellule od organismi (come nelle scienze sociali). Questa filosofia si basa quindi sul concetto che “il tutto è più della somma delle singole parti” Il tutto è maggiore della somma delle sue singole parti
Systems Biology cerca di studiare le PROPRIETA’ EMERGENTI , il ruolo dello studio di questi network è volto alla comprensione del processo attraverso il quale un comportamento complesso può svilupparsi in un sistema che comprende mutue interazioni dei componenti. Il comportamento dell’insieme spesso non può essere dedotto dallo studio dettagliato dei componenti del sistema. In systems biology, nella scienza della complessità, tali proprietà intrinseche sono chiamate PROPRIETà EMERGENTI. Queste proprietà sono, per così dire, caratteristiche inattese dell’insieme, che non possono essere dedotte se osserviamo solo i componenti e non l’interazione complessa. Queste proprietà sono date dal risultato di interazioni non-random di cellule altamente specializzate che si assemblano in complessi, e possono essere comprese solo mantenendo intatto il sistema Queste proprietà sono caratteristiche inattese dell’insieme, che non possono essere dedotte se osserviamo solo i componenti e non l’interazione complessa
Da Systems Biology a Systems Neuroscience 302 neuroni 5000 connessioni Passando quindi da una visione monocellulare ad una visione di insieme multicellulare complessa, ci si pone quindi il problema della comunicazione e delle interazioni intercellulari. Lo studio del cervello di presta molto bene ad affrontare questo tipo di problemi. Infatti il sistema nervoso è particolarmente complesso, ed è nata e si è sviluppata quindi l’area delle systems neuro science. Questa area di studio esplora le basi della cognizione, e dei processi motivazionali, sensoriali e motori. In poche parole, l’approccio di tipo systems biology ambisce a colmare il gap che si crea tra lo studio a livello molecolare-cellulare e l’analisi comportamentale delle funzioni mentali “elevate”. L’esplorazione delle funzioni cognitive è chiaramente più semplice da studiare in un sistema con un limitato numero di neuroni. Prendiamo quindi il povero verme, C.Elegans. Questo essere ha solo 302 neuroni (c elegans: 1 mm; Average brain length = 167 mm), quindi è piuttosto semplice definire in modo univoco i neuoni e la loro funzione . Le mappe e l’interconnettività tra questi neuroni può essere studiata attraverso microscopio elettronico (http://www.cellbiology.yale.edu/colon-ramos/research.html ). In un sistema così semplice, possono essere usati tool computazionali per definire le connessioni (con 5000 connessioni può farlo anche il mio computer), e possono essere mappate le interconnessioni nervose specifiche di determinati pathways e circuiti comportamentali. Possono essere quindi tracciate relazioni causali dirette tra l’attività neuronale e il comportamento, e l’azione. C.Elegans Possono essere usati tool computazionali per definire le connessioni Possono essere mappate le interconnessioni nervose specifiche di determinati pathways e circuiti comportamentali Possono essere quindi tracciate relazioni causali dirette tra l’attività neuronale e il comportamento
Da Systems Biology a Systems Neuroscience 100 miliardi neuroni 5 x 10^14 connessioni Passando quindi da una visione monocellulare ad una visione di insieme multicellulare complessa, ci si pone quindi il problema della comunicazione e delle interazioni intercellulari. Lo studio del cervello di presta molto bene ad affrontare questo tipo di problemi. Infatti il sistema nervoso è particolarmente complesso, ed è nata e si è sviluppata quindi l’area delle systems neuro science. Questa area di studio esplora le basi della cognizione, e dei processi motivazionali, sensoriali e motori. In poche parole, l’approccio di tipo systems biology ambisce a colmare il gap che si crea tra lo studio a livello molecolare-cellulare e l’analisi comportamentale delle funzioni mentali “elevate”. L’esplorazione delle funzioni cognitive è chiaramente più semplice da studiare in un sistema con un limitato numero di neuroni. Prendiamo quindi il povero verme, C.Elegans. Questo essere ha solo 302 neuroni (c elegans: 1 mm; Average brain length = 167 mm), quindi è piuttosto semplice definire in modo univoco i neuoni e la loro funzione . Le mappe e l’interconnettività tra questi neuroni può essere studiata attraverso microscopio elettronico (http://www.cellbiology.yale.edu/colon-ramos/research.html ). In un sistema così semplice, possono essere usati tool computazionali per definire le connessioni (con 5000 connessioni può farlo anche il mio computer), e possono essere mappate le interconnessioni nervose specifiche di determinati pathways e circuiti comportamentali. Possono essere quindi tracciate relazioni causali dirette tra l’attività neuronale e il comportamento, e l’azione. Devono essere utilizzati approcci diversi che consentano di comprendere la complessità 10
Metodi di studio di Systems Biology Genomica Sequencing Epigenomica ChIP-chip, ChIP-seQ… Trascrittomica Microarray e Sequencing Proteomica Mass Spectrometry e Protein Microarrays
Sequencing Metodo Sanger Automatizzazione del metodo di Sanger Porta alla determinazione della struttura primaria di un polimero Metodo Sanger Automatizzazione del metodo di Sanger Next-Generation Sequencing
Sequencing – Metodo Sanger chain-terminator method dideoxynucleotide triphosphates (ddNTPs), lacking a 3'-OH group required for the formation of a phosphodiester bond between two nucleotides Tradizionalmente si è sempre usato il metodo di Sanger (chain-terminator method), is more efficient and uses fewer toxic chemicals and lower amounts of radioactivity than the method of Maxam and Gilbert, it rapidly became the method of choice. The key principle of the Sanger method was the use of dideoxynucleotide triphosphates (ddNTPs) as DNA chain terminators. In order to perform the sequencing, one must first convert double stranded DNA into single stranded DNA. This can be done by denaturing the double stranded DNA with NaOH. A Sanger reaction consists of the following: a strand to be sequenced (one of the single strands which was denatured using NaOH), DNA primers (short pieces of DNA that are both complementary to the strand which is to be sequenced and radioactively labelled at the 5' end), a mixture of a particular ddNTP (such as ddATP) with its normal dNTP (dATP in this case), and the other three dNTPs (dCTP, dGTP, and dTTP). The concentration of ddATP should be 1% of the concentration of dATP. The logic behind this ratio is that after DNA polymerase is added, the polymerization will take place and will terminate whenever a ddATP is incorporated into the growing strand. If the ddATP is only 1% of the total concentration of dATP, a whole series of labeled strands will result (Figure 1). Note that the lengths of these strands are dependent on the location of the base relative to the 5' end. chain-terminating nucleotides, lacking a 3'-OH group required for the formation of a phosphodiester bond between two nucleotides, thus terminating DNA strand extension and resulting in DNA fragments of varying length. The newly synthesized and labeled DNA fragments are heat denatured, and separated by size (with a resolution of just one nucleotide) by gel electrophoresis on a denaturing polyacrylamide-urea gel with each of the four reactions run in one of four individual lanes (lanes A, T, G, C); the DNA bands are then visualized by autoradiography or UV light, and the DNA sequence can be directly read off the X-ray film or gel image. In the image on the right, X-ray film was exposed to the gel, and the dark bands correspond to DNA fragments of different lengths. A dark band in a lane indicates a DNA fragment that is the result of chain termination after incorporation of a dideoxynucleotide (ddATP, ddGTP, ddCTP, or ddTTP). The relative positions of the different bands among the four lanes are then used to read (from bottom to top) the DNA sequence. Sanger - nato 1918. Nel 1975 sviluppa il metodo della terminazione della catena della sequenziazione di DNA. Due anni più tardi usa la sua tecnica per sequenziare con successo il genoma del Phage Φ-X174, il primo genoma sequenziato completamente. Fa tutto di mano propria, senza alcuna automazione. Questa impresa è di importanza chiave in progetti come il Progetto genoma umano e gli consente di conquistare il secondo Nobel, che gli viene consegnato nel 1980. Il primo Nobel era per la sequenza aminoacidica dell’insulina. 1975
Sequencing - Automatizzazione del metodo di Sanger 1975 2000 An Automated sequencing gel: That is exactly what we do to sequence DNA ---- we run DNA replication reactions in a tube, but in the presence of trace amounts of all four of the dideoxy terminator nucleotides. Electrophoresis is used to separate the resulting fragments by size and we can 'read' the sequence from the gel, as the colors march past in order. In a large-scale sequencing lab, we use a machine to run the electrophoresis step and monitor the different colors as they pass across a laser. Since about 2001, these machines --- not surprisingly called automated DNA sequencers --- have used 'capillary electrophoresis', where the fragments are piped through a tiny glass-fiber capillary during the electrophoresis step, and they come out the far end in size-order. There is an ultraviolet laser built into the machine that shoots through the liquid emerging from the end of the capillaries, checking for pulses of fluorescent colors to emerge. There might be as many as 96 samples moving through as many capillaries ('lanes') in the most common type of sequencer. Now We do not even have to 'read' the sequence from the gel - the computer does that for us!
Sequencing – SHOTGUN Sequencing Human Genome Project In genetics, shotgun sequencing, also known as shotgun cloning, is a method used for sequencing long DNA strands. It is named by analogy with the rapidly-expanding, quasi-random firing pattern of a shotgun. Since the chain termination method of DNA sequencing can only be used for fairly short strands (100 to 1000 basepairs), longer sequences must be subdivided into smaller fragments, and subsequently re-assembled to give the overall sequence. In shotgun sequencing [1] [2], DNA is broken up randomly into numerous small segments, which are sequenced using the chain termination method to obtain reads. Multiple overlapping reads for the target DNA are obtained by performing several rounds of this fragmentation and sequencing. Computer programs then use the overlapping ends of different reads to assemble them into a continuous sequence. Funding came from the US government through the National Institutes of Health in the United States, and the UK charity, the Wellcome Trust, who funded the Sanger Institute (then the Sanger Centre) in Great Britain, as well as numerous other groups from around the world. The genome was broken into smaller pieces; approximately 150,000 base pairs in length. These pieces were then spliced into a type of vector known as "bacterial artificial chromosomes", or BACs, which are derived from bacterial chromosomes which have been genetically engineered. The vectors containing the genes can be inserted into bacteria where they are copied by the bacterial DNA replication machinery. Each of these pieces was then sequenced separately as a small "shotgun" project and then assembled. The larger, 150,000 base pairs go together to create chromosomes. The project began in 1990 and was initially headed by James D. Watson at the U.S. National Institutes of Health. A working draft of the genome was released in 2000 and a complete one in 2003, with further analysis still being published.
Sequencing – Next Generation Throughput: Costi: Sanger: 0.1 Mbp/day NGS: 5 Gbp/day (5000 Mbp/day) Incremento di 50.000 volte Sanger: 500$/Mb NGS: 1-2$/Mb Riduzione 500 volte Genoma umano aploide 3Gb!
Sequencing – Next Generation Roche 454 Illumina Solexa Abi SoLID
Sequencing – Solexa Technology
Epigenomica ChIp-chip / ChIP-Seq DamID Modificazioni della architettura del DNA, non dovuta a modificazioni della struttura primaria (sequenza) ChIp-chip / ChIP-Seq DamID
Modificazioni degli Istoni (N-term) Epigenomica Modificazioni degli Istoni (N-term) Acetilazione Metilazione Ubiquitilazione Fosforilazione Sumoilazione Modificazioni del DNA Metilazione DNA methylation is controlled byDNA methyltransferases (DNMT) that create (DNMT3A, DNMT3B) or maintain (DNMT1) patterns of methylation. DNA methyla-tion is required for silencing of genes on the inactive X chromosome [4–6] and the allele-specific expression of some imprinted loci [7]. Methylation is also required for silencing transposable elements andmaintaining genome stability [8,9] and is a critical regulator of pluripotency genes [10–12]. A second major epigenetic mechanism is the post-translational modification of N-terminal tails of histone proteins by acetylation, methylation, phosphorylation, ubiquitylation, sumoylation, ADP ribosylation, biotinylation and potentially othermodifications L'Acetilazione di un residuo di lisina nella regione N terminale delle proteine istoniche rimuove una carica positiva, riducendol'affinita' tra istoni e DNA. Questo facilita l'accesso della RNA polimerasi e dei fattori di trascrizione alla regione promoter. Percio' in moltio casi l'acetilazione degli istoni aumenta la trascrizione mentre la deacetilazione reprime la trascrizione. La lisina può essere metilata una, due o tre volte dalla lisina metiltransferasi
Epigenomica – ChIP-chip/ChIP-Seq Il principio della Chromatin immunoprecipitation è quello di ISOLARE le porzioni di cromatina che interagiscono con proteine specifiche (in questo caso ISTONI) dal complesso miscuglio di DNA, attraverso l’uso di ANTICORPI specifici
Epigenomica – ChIP-chip/ChIP-Seq Identificando le sequenze, si può capire DOVE si localizzano i gli istoni, quanto è compatta la cromatina, e se queste condizioni cambiano nel tempo o in condizioni diverse
Epigenetica - DamID (DNA adenine methyltransferase identification) DNA-binding protein as a fusion protein with DNA adenine methyltransferase localizes the methyltransferase in the region of the binding site Adenosine methylation DamID identifies binding sites by expressing the proposed DNA-binding protein as a fusion protein with DNA methyltransferase. Binding of the protein of interest to DNA localizes the methyltransferase in the region of the binding site. Adenosine methylation does not occur naturally in eukaryotes and therefore adenine methylation in any region can be concluded to have been caused by the fusion protein, implying the region is located near a binding site. DamID is an alternate method to ChIP-on-chip.
Trascrittomica Real Time PCR Expression Microarrays Modificazioni dell’espressione del DNA, quindi dei livelli di RNA messaggero Real Time PCR Expression Microarrays
Proteomica Mass Spectrometry Protein Microarrays Modificazioni del livello delle proteine all’interno di una cellula, e della loro funzione Mass Spectrometry Protein Microarrays
Proteomica – Mass Spectrometry Determinazione della struttura elementare di un campione o di una molecola (peptidi). Il principio della massa si basa sul diverso rapporto massa/carica dei componenti che vengono ionizzati e accelerati in un campo elettrico Matrix-assisted laser desorption/ionization (MALDI) is a soft ionization technique used in mass spectrometry, allowing the analysis ofbiomolecules (biopolymers such as proteins, peptides and sugars) and large organic molecules (such as polymers, dendrimers and othermacromolecules), which tend to be fragile and fragment when ionized by more conventional ionization methods The ionization is triggered by a laser beam (normally a nitrogen laser). A matrix is used to protect the biomolecule from being destroyed by directlaser beam and to facilitate vaporization and ionization. MALDI techniques typically employ the use of UV lasers such as nitrogen lasers (337 nm). The matrix absorbs the laser energy and it is thought that primarily the matrix is ionized by this event. The matrix is then thought to transfer part of its charge to the analyte molecules (e.g. protein), thus ionizing them while still protecting them from the disruptive energy of the laser. The time-of-flight (TOF) analyzer uses an electric field to accelerate the ions through the same potential, and then measures the time they take to reach the detector. If the particles all have the same charge, the kinetic energies will be identical, and their velocities will depend only on their masses. Lighter ions will reach the detector first. The final element of the mass spectrometer is the detector. The detector records either the charge induced or the current produced when an ion passes by or hits a surface. In a scanning instrument, the signal produced in the detector during the course of the scan versus where the instrument is in the scan (at what m/Q) will produce a mass spectrum, a record of ions as a function ofm/Q. Ionizzazione: MALDI (matrix-assisted laser desorption/ionization) Detector Campo Elettrico
Proteomica – Protein Microarrays Per determinare la presenza e quantificare la proteina di interesse in un campione
Esempi di studi Systems Biology Epigenetica & Trascrittomica Genomica & Trascrittomica Proteomica Biology today relies heavily on genomic data for hypothesis building. Replacement from “descriptive science” to “discovery science”
Epigenetica & Trascrittomica altered epigenetic profiles in human neoplasia Cancer Biol 2009 Uso di anticorpi specifici per Citosine metilate ChIP-chip The discovery of altered epi-genetic profiles in human neoplasia has been a major factor in constructing a new paradigm in which epigenetic variability con-tributes significantly to human disease. Because of their reversible nature and their role in gene expression and DNA structure, epi-genetic alterations, especially changes in histone acetylation, are being exploited for therapeutic drug targeting in clinical trials. Proper epigenetic regulation is critical to development and func-tion of the mammalian CNS. Global DNA methylation levels are dynamic during brain development [14], and at certain genomic loci can vary among different brain regions
Genomica & Trascrittomica Science 2008 Scopo: identificare alterazioni geniche in pazienti con GBM, e la loro associazione con la patologia Genomica: sequencing Trascrittomica:Microarrays Fisiologia:survival Isocitrate Dehydrogenase 1_ - non associato precedentemente con GBM - altamente mutato in GBM (mutazioni puntiformi G>A) - associato a miglior survival
Proteomica Proteomica è il metodo di elezione per lo studio delle proteine delle vescicole post-sinaptiche, poiché i profili di espressione non sono in grado di fornire dati accurati Identificazione dei complessi con la proteina PSD-95(post-synaptic protein) identificarte 118 proteine Identificazione dei pathways in cui tali proteine sono coinvolte (schizofrenia)
Nuovi approcci in SYSTEMS BIOLOGY Data Sharing Network Integrazione di dati genotipici e fenotipici Simulazioni e informatica
Nuovi approcci in SYSTEMS BIOLOGY Data Sharing Network Integrazione di dati genotipici e fenotipici Simulazioni e informatica
Human proteome Project Data sharing “omics” reaserach richiede non solo una strumentazione high-throughput e un team multidisciplinare di biologi, informatici, statistici, ma richiede anche, e in modo fondamentale, un cambio di prospettiva. In questa nuova prospettiva assume un ruolo fondamentale il DATA SHARING Brain Atlases Human proteome Project
Allen Brain Atlas Mouse Brain Developing mouse brain Mouse spianl cord http://www.brain-map.org/ Mouse Brain Developing mouse brain Mouse spianl cord Human Cortex In situ Hybridization Per combinare GENOMICA e NEUROANATOMIA, creando una mappa di espressione genica nel cervello
GENE EXPRESSION NERVOUS SYSTEM ATLAS GENSAT GENE EXPRESSION NERVOUS SYSTEM ATLAS Database pubblico di espressione genica ne SNC di topo allo stato embrionale e nel topo adulto Basato su bacterial artificial chromosome (BAC)-transgenic reporter mice
Human Brain proteome project HUPO BPP is an open international project under the patronage of the Human Proteome Organisation (HUPO) that aims: · to analyze the brain proteome of human as well as mouse models in healthy, neurodiseased and aged status with focus on Alzheimer's and Parkinson's Disease · to perform quantitative proteomics as well as complemantary gene expression profiling on disease-related brain areas and bodily fluids · to advance knowledge of neurodiseases and aging in order to push new diagnostic approaches and medications · to exchange knowledge and data with other HUPO projects and national / international initiatives in the neuroproteomic field · to make neuroproteomic research and its results available in the scientific community and society
Nuovi approcci in SYSTEMS BIOLOGY Data Sharing Network Integrazione di dati genotipici e fenotipici Simulazioni e informatica
Network SYSTEMS BIOLOGY integra dati che derivano da analisi genetiche, gene expression, esperimenti di proteomica e neurobiologici NETWORKS sistemi di unità interconnesse in grado di interagire e influenzarsi a vicenda Quando i network sono studiati nel loro insieme, emergono proprietà che non possono essere derivate dall’analisi individuale dei componenti
WEIGHTED GENE CO-EXPRESSION NETWORK ANALYSIS (WGCNA) From LISTS of genes… …To networks WEIGHTED GENE CO-EXPRESSION NETWORK ANALYSIS (WGCNA) Il profilo di espressione può essere organizzato in networks secondo correlazioni di espressione I network possono essere dedotti da studi che generano una gran quantità di dati, come expression o protein profiling. 1. la coespressione di gruppi di molecole nei campioni è misurata per la costruzione di networks 2. vengono identificate le possibili interazioni tra queste molecole coespresse; a ogni molecola viene data una posizione, che ha un significato molto importante: le molecole più interconnesse, chiamate HUB, avranno più interazioni e saranno responsabili dei “movimenti del network” 3. I network possono infine, in una struttura complessa, essere clusterizzati (specifici ad esempio di ogni sottotipo cellulare del cervello) per correlazione di espressione
WGCNA: esempio Nature Neuroscience 2008 Cortical Areas Caudate Nucleus The enormous complexity of the human brain ultimately derives from a finite set of molecular instructions encoded in the human genome. These instructions can be directly studied by exploring the organization of the brain’s transcriptome through systematic analysis of gene coexpression relationships. We analyzed gene coexpression relationships in microarray data generated from specific human brain regions and identified modules of coexpressed genes that correspond to neurons, oligodendrocytes, astrocytes and microglia. These modules provide an initial description of the transcriptional programs that distinguish the major cell classes of the human brain and indicate that cell type–specific information can be obtained from whole brain tissue without isolating homogeneous populations of cells. Other modules corresponded to additional cell types, organelles, synaptic function, gender differences and the subventricular neurogenic niche. We found that subventricular zone astrocytes, which are thought to function as neural stem cells in adults, have a distinct gene expression pattern relative to protoplasmic astrocytes. Our findings provide a new foundation for neurogenetic inquiries by revealing a robust and previously unrecognized organization to the human brain transcriptome M16 espresso preferenzialmente in oligodendrociti e neuroni Caudate Nucleus
Network: esempio di studio di geni coinvolti in Atassia PROTEOMICA + BIOINFORMATICA Identificazione di proteine che interagiscono con proteine atassia-specifiche Identificazione di nuovi partner attraverso lo studio di database di interazioni altre 7000 proteine Identificazione di nuovi pathway coinvolti in atassia e altre patologie degenerative ATASSIA: disturbo consistente nella progressiva perdita della coordinazione muscolare che quindi rende difficoltoso eseguire i movimenti volontari
Nuovi approcci in SYSTEMS BIOLOGY Data Sharing Network Integrazione di dati genotipici e fenotipici Simulazioni e informatica
Integrating genotypic and phenotypic data Expression Quantitative Trait Locus (eQTL) analysis Genotypic Data: SNPs in un campione di pazienti Phenotypic Data: Espressione Genica Determinare quali regioni del genoma sono più INDICATIVE di uno stato fisiologico o patologico Eqtls sono loci che sono in grado di influenzare l’espressione genica Espressione genica rappresenta il dato fenotipico misurabile e immediato , quantitative trait loci (QTLs) are stretches of DNA that are closely linked to the genes that underlie the trait in question. QTLs can be molecularly identified (for example, with AFLP) to help map regions of the genome that contain genes involved in specifying a quantitative trait. This can be an early step in identifying and sequencing these genes A quantitative trait locus (QTL) is a region of DNA that is associated with a particular phenotypic trait - these QTLs are often found on differentchromosomes. Knowing the number of QTLs that explains variation in the phenotypic trait tells us about the genetic architecture of a trait. It may tell us that plant height is controlled by many genes of small effect, or by a few genes of large effect. Another use of QTLs is to identify candidate genes underlying a trait. Once a region of DNA is identified as contributing to a phenotype, it can besequenced. The DNA sequence of any genes in this region can then be compared to a database of DNA for genes whose function is already known. In a recent development, classical QTL analyses are combined with gene expression profiling i.e. by DNA microarrays. Such expression QTLs (eQTLs) describe cis- and trans-controlling elements for the expression of often disease-associated genes. Observed epistatic effects have been found beneficial to identify the gene responsible by a cross-validation of genes within the interacting loci with metabolic pathway- and scientific literature databases.
Nuovi approcci in SYSTEMS BIOLOGY Data Sharing Network Integrazione di dati genotipici e fenotipici Simulazioni e informatica
Simulazioni e Bioinformatica “We’re literally drowning in data. We have lots of scientists who spend their life working out important details, but we have virtually no idea how all these details connect together. Blue Brain is about showing people the whole.” (Henry Markram, director of BBP)
Simulazioni e Bioinformatica BLUE BRAIN PROJECT - Iniziato nel 2005 - Più di 2000 microchips connessi - 22.800 miliardi di operazioni al secondo Raggiunto primo traguardo: Simulazione del firing in una colonna neocorticale (10.000 neuroni/30 milioni di connessioni)
Conclusioni Systems Biology è “lo studio delle interazioni e degli interscambi che avvengono a diversi livelli dell’informazione biologica” E’ possibile grazie all’avvento di nuove tecniche di throughput e informatiche
Conclusioni Le scienze “omiche” non andranno a sostituire le scienze riduzionistiche. Gli approcci “omici” offrono una nuova base su cui le scienze riduzionistiche possono essere fondate, dal momento in cui permettono di testare molte ipotesi in parallelo e offrono un contesto di ampio respiro per l’interpretazione dei dati.