La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Marco Galardini 7 Giugno 2007 Soft Computing.

Presentazioni simili


Presentazione sul tema: "Marco Galardini 7 Giugno 2007 Soft Computing."— Transcript della presentazione:

1 Marco Galardini 7 Giugno 2007 Soft Computing

2 Biotecnologia industriale
I microrganismi sono utilizzati da sempre per la produzione di prodotti utili all’uomo (pane, vino, birra), ignorando la loro presenza. A partire dal XIX secolo grazie agli studi di Koch, Pasteur e Vinogradiskij, è stato possibile l’isolamento e lo studio dei microrganismi. Attualmente un gran numero di prodotti industriali sono prodotti su larga scala con l’ausilio dei microrganismi. Vengono anche utilizzati in processi di risanamento delle acque, dei suoli e dell’aria inquinata.

3 Prodotti di fermentazione
Prodotti chimici (acido citrico) Alcol (etanolo) Additivi alimentari (aminoacidi) Antibiotici (penicillina) Prodotti farmaceutici (insulina) Enzimi (glucosio isomerasi) Cellule (lievito)

4 Perché la produzione sia conveniente è necessario:
Produrre in quantità elevata (impianti di grande dimensione) La materia prima sia poco costosa (prodotti di scarto) La resa sia elevata Il prodotto sia facilmente separabile dal resto del brodo

5 Coltura batch La coltura in batch è un sistema chiuso
All'inizio della coltura vengono forniti tutti i nutrienti necessari alla crescita cellulare. La coltura in batch è un sistema vantaggioso per ottenere rapidamente un'alta quantità di biomassa.

6 Coltura continua La coltura in continuo è un sistema aperto, in cui nuovo terreno di coltura è immesso costantemente, mentre quello che si è esaurito è eliminato. Produzione di biomassa costante nel tempo. assenza di tempi morti. possibile di controllare il processo regolando i flussi. La lunga durata del processo può portare a contaminazione. Le numerose divisioni cellulari possono portare all'accumulo di mutazioni nelle cellule.

7 Coltura fed batch E’ un sistema aperto solo in entrata, ma non in uscita (volume variabile). La biomassa aumenta in proporzione ai nutrienti forniti, fino a che la crescita non viene inibita (prodotti di scarto, assenza di ossigeno). Tecnica che consente il recupero della biomassa.

8 Complicazioni I fattori da controllare sono molti:
Flusso di nutrienti / produttività / aerazione / agitazione Bisogna garantire la sterilità Controllo temperatura In base al microrganismo usato ho diverse condizioni ottimali e un diverso comportamento ogni microrganismo ha un diverso modello di crescita questi modelli sono spesso complessi e non lineari

9 Bubble column Esempio:
In questo tipo di reattori bisogna misurare il diametro medio delle bolle per determinare se l’agitazione è corretta!

10 Colture di fototrofi Esempio:
Nel caso dei fototrofi è necessario controllare anche la quantità di luce e l’agitazione in modo che tutta la coltura sia illuminata Ma bisogna impedire che troppa luce inibisca la crescita

11 Mass transfer Esempio:
La concentrazione dei nutrienti e dell’ossigeno che arrivano alla cellula non è la stessa del brodo di coltura Bisogna considerare la diffusione attraverso i diversi film intorno al microrganismo (possono essere anche 8!)

12 Modelli matematici per il fed-batch
Esempio: Per descrivere la crescita del lievito in una coltura fed-batch vengono utilizzate 6 equazioni differenziali Le varie variabili comprendono: [glucosio], [O2], [CO2], [etanolo]. Feed-rate (flusso di nutrienti) Velocità di consumo del glucosio Coefficienti di mass transfer Altri L’incognita è la biomassa

13 Soft computing: Fuzzy logic Neural network
Il calcolo delle 6 equazioni differenziali è “costoso” Necessario conoscere molte variabili Ogni microrganismo ha il suo modello di crescita Soft computing: Fuzzy logic Neural network

14 Artificial Neural network
L’unità fondamentale del neural network è il neurone. Esso riceve dati in ingresso che vengono elaborati in vario modo e “filtrati” tramite dei pesi. L’informazione viene trasmessa ai neuroni successivi solo se viene superata una certa soglia di attivazione. I pesi nei neuroni sono ottenuti tramite addestramento. Vari tipi di reti (feedforward, recurrent, modular, associative) Vari tipi di apprendimento (supervised, unsupervised, reinforcement) Utilizzi: Mancanza di modelli matematici Dati potenzialmente errati Data mining Bioinformatica

15 Artificial Neural network
E’ possibile sfruttare la capacità dei neural network di costruire un modello a partire dai dati sperimentali. Non presuppone di conoscere il modello di crescita o tutte le variabili del pocesso. Il primo scopo del lavoro è quindi sviluppare un neural network che predica la biomassa prodotta solo sulla base del feed-rate.

16 Architettura del neural network
Network “recurrent” e “dynamic” (il network è capace di considerare l’andamento temporale del processo) Input secondo blocco: [O2], feed-rate, volume Input primo blocco: feed-rate, volume Output secondo blocco: biomassa Output primo blocco: [O2]

17 Funzione d’attivazione
Pesi Input del network Output del second hidden layer Deviazione del neurone Output del first hidden layer Peso Deviazione del neurone Gli altri due tipi di neuroni hanno lo stesso tipo di comportamento; l’ultimo produce come risultato la biomassa

18 Recurrent network Contrary to feedforward networks, recurrent neural networks (RNs) are models with bi-directional data flow. While a feedforward network propagates data linearly from input to output, RNs also propagate data from later processing stages to earlier stages. [edit] Simple recurrent network A simple recurrent network (SRN) is a variation on the multi-layer perceptron, sometimes called an "Elman network" due to its invention by Jeff Elman. A three-layer network is used, with the addition of a set of "context units" in the input layer. There are connections from the middle (hidden) layer to these context units fixed with a weight of one. At each time step, the input is propagated in a standard feed-forward fashion, and then a learning rule (usually back-propagation) is applied. The fixed back connections result in the context units always maintaining a copy of the previous values of the hidden units (since they propagate over the connections before the learning rule is applied). Thus the network can maintain a sort of state, allowing it to perform such tasks as sequence-prediction that are beyond the power of a standard multi-layer perceptron. In a fully recurrent network, every neuron receives inputs from every other neuron in the network. These networks are not arranged in layers. Usually only a subset of the neurons receive external inputs in addition to the inputs from all the other neurons, and another disjunct subset of neurons report their output externally as well as sending it to all the neurons. These distinctive inputs and outputs perform the function of the input and output layers of a feed-forward or simple recurrent network, and also join all the other neurons in the recurrent processing. Dynamic neural networks Dynamic neural networks not only deal with nonlinear multivariate behaviour, but also include (learning of) time-dependent behaviour such as various transient phenomena and delay effects. Meijer has a Ph.D. thesis online where regular feedforward perception networks are generalized with differential equations, using variable time step algorithms for learning in the time domain and including algorithms for learning in the frequency domain (in that case linearized around a set of static bias points).

19 Simulazione del processo
Per il processo di apprendimento del network sono stati utilizzati dati generati con il modello matematico, utilizzando 5 differenti profili di feed-rate. Square Saw Industrial Stair-shaped

20 Training del network Algoritmo LMBP (efficiente)
Training data / validation data (2 profili di feed-rate diversi) Viene misurato l’errore sulla biomassa Quando l’errore inizia a salire, viene interrotto l’apprendimento e utilizzati i pesi e le deviazioni del minimo Due strategie: Training separato Training unito Testati più network, ognuno con un diverso numero di neuroni e di delays Per ogni struttura sono testati 50 network First hidden layer: 12 neuroni Second hidden/output layer: 1 neurone Third hidden layer: 10 neuroni

21

22 Predizione della biomassa
L’errore è massimo all’inizio del processo ma rimane sempre al di sotto dell’8%.

23 Ottimizzazione del feed rate
Il secondo obbiettivo dello studio è quello di ottimizzare il feed-rate ed ottenere quello che massimizza la quantità finale di biomassa Utilizzo un algoritmo genetico modello matematico modello ricavato dal neural network

24 Algoritmi genetici Sfruttano i meccanismi naturali della genetica per arrivare alla soluzione di un problema Popolazione iniziale di individui (soluzioni) random Valutazione della fitness (costo) delle soluzioni Selezione delle soluzioni e operazioni di mutazione e crossing-over Generazione delle popolazioni successive

25 Ottimizzazione del feed rate
La popolazione in questo caso è un vettore con n=150. Ogni posizione del vettore è un valore del feed-rate ad un determinato punto del processo. Il costo è determinato a partire dalla biomassa finale prodotta L’algoritmo è modificato per compensare le fluttuazioni e per rendere più “liscio” l’andamento del feed-rate

26 Ottimizzazione del feed rate
Modello matematico neural network La quantità finale di biomassa è pressochè identica

27 Verifica sperimentale
Il metodo sviluppato viene testato in un piccolo reattore Le prime nove run servono per creare il neural network Nell’ultima utilizzo il modello del neural network ed ottengo il miglior feed-rate con l’algoritmo genetico Il tempo per la fermentazione è ridotto di 4 ore e la biomassa è superiore rispetto a quella ottenuta con i feed-rate tradizionali

28 Conclusioni Il soft computing permette di coltivare con buone rese i microrganismi anche senza conoscerne il modello di crescita E’ possibile immaginare un applicazione di queste tecniche a microrganismi poco noti che producono prodotti particolari, spesso utili nella medicina (prodotti farmaceutici) o nella chimica dei materiali (bioplastiche) L’interazione fra l’algoritmo genetico e il neural network va comunque migliorata

29 -Fine-


Scaricare ppt "Marco Galardini 7 Giugno 2007 Soft Computing."

Presentazioni simili


Annunci Google