Diabetes mellitus is not only a very serious disease, causing discomfort and pain to millions across the world, but with the aging of the population and the prevalence of a sedentary lifestyle, it is assuming the proportion of a real epidemic, becoming a public health and social emergency. In answer to this call, research on diabetes has been intensely carried out in the past decades and the knowledge and understanding of its etiology have been significantly improved. However, investigation is still ongoing, many important questions are still unanswered, and the causes eliciting the pathogenesis and progression of the diseases are not yet fully understood. During all these years of research, sophisticated tools have been developed to study the glucose-insulin metabolic system in vivo, and cope with the inaccessibility to direct measurement of some of the key phenomena underlying the glycemic control. Such tools, as complex test protocols and model-based approaches used to interpret the experimental data, have proven powerful weapons of investigation, but, considering the epidemic proportion of the disease, there is great demand for approaches that are less invasive, less expensive and therefore more suitable for large clinical studies. Mathematical and statistical techniques that collectively go under the name of “population approaches” have already been developed and are largely employed for pharmacokinetics and pharmacodynamics studies in drug development. However, in spite of their interesting potential, they have not found significant application yet in the context of metabolism research. Thus, investigation is required to probe the feasibility and relevance of such approaches in the study of diabetes. The research presented here addresses these issues, and is aimed at applying these sophisticated techniques to the modeling of glucose metabolism, first assessing the applicability of these approaches and tailoring them to the problem under investigation, then employing them to the analysis of data from population studies. First, a simulated but physiologically plausible dataset is created based on previous real data and employed as a benchmark to assess the applicability of population approaches to the Intra Venous Glucose Tolerance Test (IVGTT) minimal model of glucose disappearance. Various population algorithms have been proposed in the literature, therefore a thorough comparison of the available methodologies is performed, and a sparse data situation is replicated to test the robustness of these methods in such cases. The results select the First-Order Conditional Estimation as method of choice and show its robustness to poor sampling. Then, a larger real dataset is employed and analyzed with the same techniques, this time assessing the quality of the results with a Monte Carlo sampling approach to profile the likelihood function. Then the population model is optimized, to provide a base model for the following covariate analysis. In fact, at the time of the experiments, demographic data about the subjects has been collected, and the purpose of the covariate analysis is to determine whether some of these variables are significantly correlated with the model parameters and can be successfully used to explain part of the differences among the subjects. After a first exploratory regression analysis, different models are tested, integrating the most significant covariates directly as predictors into the model. In agreement with previous findings in literature, basal insulinemia, age and visceral abdominal fat are shown to be good predictors of insulin sensitivity and their introduction in the model is able to account for about a third of the between-subject variability of the values of this parameter. The use of covariates enhances the explanatory power of the model and opens the way for devising new lighter experimental protocols. One of the main benefits of the population approaches, in fact, consists in their ability to borrow information across the population and use it to improve the individual parameter estimates. As a result, the experimental protocols can be less demanding, both in invasiveness and economic cost, allowing in this way a broader use in large clinical studies. The results presented here, in fact, show that population approaches are very robust and able to cope with sparse data situations. In addition, the use of covariates in the model enhances even further the power of such techniques and makes them very appealing approaches to the study of glucose-insulin metabolism. In addition, a population approach is proposed to solve the problem of the estimation of the Disposition Index (DI) of glucose tolerance in a population. Since both insulin sensitivity and beta-cell response must be taken into account to assess the actual efficiency of the glucose disposal system, the DI was proposed to condense the information conveyed by both these parameters in a single value. Traditionally, approaches based on a geometrical fit are used to determine the value of DI in a population of subjects characterized by the same degree of glucose tolerance. However, all these methods rely on the assumption that all the subjects in the population share exactly the same value of DI and are therefore not able to account for the population variability, which is inevitably inherent to biological data. In this work, a NonLinear Mixed-Effects Approach is proposed to analyze the distribution of the insulin sensitivity and beta-cell response indices across a population, and then obtaining the information on the DI from the population features thus estimates. Comparisons on simulated datasets between the newly proposed method and its competitors prove that a proper model of the variability structure is essential to avoid severe bias in the estimates.

Il diabete mellito è non solo una patologia molto seria, che causa disagi e sofferenze a milioni di persone nel mondo, ma, anche a causa dell’affermarsi di uno stile di vita sedentario e dell’invecchiamento della popolazione, negli ultimi decenni ha raggiunto proporzioni epidemiche, diventando una vera e propria emergenza sanitaria e sociale. Per fronteggiare questo problema, molte risorse sono state dedicate all’attività di ricerca scientifica, che ha permesso una più profonda conoscenza dell’eziologia del diabete. Tuttavia, il diabete è a tutt’oggi ancora inguaribile e molte questioni rimangono aperte, fra cui la completa comprensione dei fattori che causano e fanno progredire la malattia. Anni di ricerca hanno permesso di sviluppare molti sofisticati strumenti per studiare il sistema metabolico glucosio-insulina in vivo e poter così fronteggiare il problema dell’inaccessibilità diretta di alcuni dei fenomeni chiave che controllano la glicemia. Tali strumenti, fra cui protocolli di studio e approcci basati su modello usati per interpretare i dati sperimentali, si sono rivelati armi molto potenti nelle mani dei ricercatori, ma le proporzioni epidemiche della malattia e il parziale cambiamento delle strategie e obiettivi della ricerca hanno sollevato l’esigenza di poter disporre di metodologie meno invasive, più economiche, e quindi più adatte ad essere applicate ad estesi studi clinici. Alcuni strumenti matematici e statistici che sono collettivamente conosciuti con il nome di “approcci di popolazione” sono già stati sviluppati e vengono largamente impiegati in studi di farmacocinetica e farmacodinamica, per lo sviluppo di farmaci. Tali approcci si prefiggono come obiettivo primario di stimare la distribuzione dei parametri di un modello all’interno di una popolazione e pertanto si avvalgono, per la stima individuale, delle informazioni disponibili sull’intero gruppo di soggetti. Sono particolarmente adatti a situazioni in cui il campionamento intensivo in un singolo soggetto non è possibile, e quando l’interesse del ricercatore è focalizzato sulla variabilità inter-individuale. Tuttavia, nonostante le loro interessanti potenzialità, gli approcci di popolazione non sono ancora apprezzati all’interno dell’ambiente di ricerca sulle malattie metaboliche, e la loro applicazione in tali studi è stata molto limitata. Pertanto è necessaria dell’attività di ricerca per saggiare l’effettiva fattibilità e rilevanza dell’utilizzo di tali approcci nello studio del diabete. La ricerca qui presentata risponde a queste esigenze, proponendosi come obiettivo l’applicazione di queste sofisticate tecniche ai modelli di metabolismo del glucosio, prima testandone la fattibilità e adattandole al problema in esame, e poi impiegandole nell’analisi di dati raccolti in studi di popolazione. Poiché in letteratura sono stati proposti molti diversi algoritmi, come primo passo, un dataset simulato è stato utilizzato per effettuare un confronto delle metodologie quando applicate al modello minimo del glucosio per il Test di Tolleranza IntraVenosa al Glucosio (IVGTT). First-Order Conditional Estimation (FOCE) si è rivelato come l’algoritmo più soddisfacente, in quanto ha fornito i risultati più accurati e robusti in caso di scarsità o rumorosità dei campioni. Successivamente, per validare i risultati trovati su dati reali, l’analisi è stata ripetuta su un dataset più esteso, relativo a 204 soggetti sani testati con IVGTT. Per poter saggiare la bontà delle soluzioni fornite dai vari algoritmi, è stato impiegato un sistema di stima della likelihood function basato su campionamento Monte Carlo. Questa analisi, non solo ha permesso di confermare la scelta di FOCE come metodo preferenziale, ma si è anche rivelata come un potente strumento per valutare la precisione delle stime dei parametri di popolazione. Successivamente, è stato messo a punto e ottimizzato un modello di popolazione, conservando nella matrice di covarianza solo i termini di correlazione fra i parametri SI-P2 e SG-VOL. Questo modello è servito come base per la successiva integrazione di covariate nel modello. Al momento dell’esecuzione degli esperimenti, infatti, sono stati raccolti alcuni dati sui pazienti, fra cui altezza, peso, sesso, età, glicemia e insulinemia basali, informazioni sul grasso corporeo. È stata effettuata una analisi per determinare quali fra queste variabili potessero essere usate per spiegare parte della variabilità nei valori dei parametri del modello minimo fra i diversi soggetti. Il risultato è un modello che integra queste informazioni direttamente nelle sue equazioni, mentre i coefficienti di regressione per ognuno dei predittori diventano veri e propri parametri del modello e il loro valore viene ottimizzato insieme agli altri parametri di popolazione. L’analisi effettuata ha trovato come buoni predittori per SI e P2 l’ età, l’insulinemia basale e il grasso addominale, che in ambo i parametri riescono a spiegare una buona fetta della variabilità inter-individuale. Sia l’impiego di metodologie di popolazione, sia l’introduzione delle covariate nel modello, permettono di aumentarne il potere predittivo, e sono in grado di usare informazioni indipendenti dai soli dati sperimentali. Questo permette di mettere a punto dei protocolli di studio meno invasivi, meno costosi, e pertanto più adatti ad un impiego su larga scala: ulteriore ricerca potrebbe avere come obiettivo l’ottimizzazione di una sampling schedule ridotta, che si avvantaggi dell’utilizzo degli approcci di popolazione. Ad ogni modo, il dataset utilizzato in questa analisi comprende solo soggetti sani, ed è quindi caratterizzato da una quantità limitata di variabilità di popolazione. Pertanto, sarebbe necessario ripetere l’analisi su altri dataset, per poter confermare questi risultati, in particolare sulle covariate. Inoltre, in una sezione successiva, un metodo di popolazione è stato applicato anche ad un altro problema diverso, la stima del Disposition Index (DI) del glucosio. Questo è un indice calcolato combinando sensitività e responsività all’insulina, che serve per testare l’effettiva efficacia del sistema di controllo della glicemia. Ci sono due versioni proposte per la formula, una semplificata, che consiste semplicemente nel prodotto (da cui il nome di Legge Iperbolica), e una con un parametro aggiuntivo ad esponente della sensitività all’insulina. Per poter calcolare il DI medio in una popolazione, e per poter saggiare quale delle due formule sia effettivamente più adatta, in letteratura si trovano alcuni approcci basati su un fit geometrico. Tuttavia, alcune approssimazioni sono utilizzate per semplificare il fit, e sono molte le questioni metodologiche spesso sottovalutate. Pertanto viene presentato qui un nuovo metodo Total Least Squares (TLS) che affronta il problema senza l’impiego di approssimazioni. Grazie ad alcune simulazioni, si è effettuato un paragone fra i vari metodi disponibili, e il nuovo algoritmo è risultato migliore rispetto ai predecessori. Tuttavia, tutti gli algoritmi basati su fit si fondano sull’ipotesi che i soggetti appartenenti alla popolazione abbiano lo stesso valore di DI, e l’unica fonte di incertezza nei dati sia dovuta alla stima degli indici di secrezione e sensitività. Questa ipotesi sembra una forte semplificazione e, in effetti, l’analisi di un dataset reale sembra confermare la presenza di variabilità di popolazione nei valori del DI. Ulteriori simulazioni hanno confermato che tutti metodi basati su fit, TLS compreso, falliscono quando la variabilità di popolazione è presente. Pertanto, è stato ideato un altro metodo basato su approcci di popolazione e, in particolare, su NonLinear Mixed-Effects Models (NLMEM), che è in grado di separare la variabilità nei dati, poiché fondato su ipotesi meno restrittive. Tale algoritmo stima i parametri della distribuzione di probabilità congiunta degli indici di secrezione e sensitività, e poi estrae le informazioni sul DI dalla matrice di covarianza. NLMEM si è rivelato equivalente a TLS quando non c’è variabilità di popolazione, ma di gran lunga più affidabile quando le ipotesi per il fit geometrico non sono rispettate, pertanto si è deciso di utilizzarlo sul dataset reale per testare la validità della legge iperbolica. Anche se una validazione su altri dataset è auspicabile per validare i risultati qui presentati, il modello con il parametro aggiuntivo sembra spiegare i dati in maniera più soddisfacente, e il valore del parametro sembra dipendere dalla coppia di parametri usata per la definizione del DI, più che dalla popolazione in esame (anziani piuttosto che giovani). Inoltre, nello studio qui proposto, il punto di partenza sono stati i valori degli indici di secrezione già calcolati, insieme con la loro precisione, grazie ad un metodo tradizionale; un approccio ancora più potente consisterebbe nell’utilizzare un modello di popolazione per stimare contemporaneamente sia gli indici di secrezione che sensitività, sia i parametri della loro distribuzione di popolazione, da cui ricavare le informazioni sul DI. Riassumendo, in questo lavoro si sono messi in luce i vantaggi dell’applicazione di approcci di popolazione nello studio nel diabete. Le potenzialità sono molte, dal miglioramento delle stime dei parametri individuali grazie all’uso dei prior di popolazione o di covariate e la relativa possibilità di mettere a punto protocolli di studio più leggeri, fino all’analisi di situazioni in cui la struttura gerarchica della variabilità è un aspetto cruciale.

Nonlinear Mixed-Effects Modelling of Glucose-Insulin Metabolism / Denti, Paolo. - (2009 Jan 28).

Nonlinear Mixed-Effects Modelling of Glucose-Insulin Metabolism

Denti, Paolo
2009

Abstract

Il diabete mellito è non solo una patologia molto seria, che causa disagi e sofferenze a milioni di persone nel mondo, ma, anche a causa dell’affermarsi di uno stile di vita sedentario e dell’invecchiamento della popolazione, negli ultimi decenni ha raggiunto proporzioni epidemiche, diventando una vera e propria emergenza sanitaria e sociale. Per fronteggiare questo problema, molte risorse sono state dedicate all’attività di ricerca scientifica, che ha permesso una più profonda conoscenza dell’eziologia del diabete. Tuttavia, il diabete è a tutt’oggi ancora inguaribile e molte questioni rimangono aperte, fra cui la completa comprensione dei fattori che causano e fanno progredire la malattia. Anni di ricerca hanno permesso di sviluppare molti sofisticati strumenti per studiare il sistema metabolico glucosio-insulina in vivo e poter così fronteggiare il problema dell’inaccessibilità diretta di alcuni dei fenomeni chiave che controllano la glicemia. Tali strumenti, fra cui protocolli di studio e approcci basati su modello usati per interpretare i dati sperimentali, si sono rivelati armi molto potenti nelle mani dei ricercatori, ma le proporzioni epidemiche della malattia e il parziale cambiamento delle strategie e obiettivi della ricerca hanno sollevato l’esigenza di poter disporre di metodologie meno invasive, più economiche, e quindi più adatte ad essere applicate ad estesi studi clinici. Alcuni strumenti matematici e statistici che sono collettivamente conosciuti con il nome di “approcci di popolazione” sono già stati sviluppati e vengono largamente impiegati in studi di farmacocinetica e farmacodinamica, per lo sviluppo di farmaci. Tali approcci si prefiggono come obiettivo primario di stimare la distribuzione dei parametri di un modello all’interno di una popolazione e pertanto si avvalgono, per la stima individuale, delle informazioni disponibili sull’intero gruppo di soggetti. Sono particolarmente adatti a situazioni in cui il campionamento intensivo in un singolo soggetto non è possibile, e quando l’interesse del ricercatore è focalizzato sulla variabilità inter-individuale. Tuttavia, nonostante le loro interessanti potenzialità, gli approcci di popolazione non sono ancora apprezzati all’interno dell’ambiente di ricerca sulle malattie metaboliche, e la loro applicazione in tali studi è stata molto limitata. Pertanto è necessaria dell’attività di ricerca per saggiare l’effettiva fattibilità e rilevanza dell’utilizzo di tali approcci nello studio del diabete. La ricerca qui presentata risponde a queste esigenze, proponendosi come obiettivo l’applicazione di queste sofisticate tecniche ai modelli di metabolismo del glucosio, prima testandone la fattibilità e adattandole al problema in esame, e poi impiegandole nell’analisi di dati raccolti in studi di popolazione. Poiché in letteratura sono stati proposti molti diversi algoritmi, come primo passo, un dataset simulato è stato utilizzato per effettuare un confronto delle metodologie quando applicate al modello minimo del glucosio per il Test di Tolleranza IntraVenosa al Glucosio (IVGTT). First-Order Conditional Estimation (FOCE) si è rivelato come l’algoritmo più soddisfacente, in quanto ha fornito i risultati più accurati e robusti in caso di scarsità o rumorosità dei campioni. Successivamente, per validare i risultati trovati su dati reali, l’analisi è stata ripetuta su un dataset più esteso, relativo a 204 soggetti sani testati con IVGTT. Per poter saggiare la bontà delle soluzioni fornite dai vari algoritmi, è stato impiegato un sistema di stima della likelihood function basato su campionamento Monte Carlo. Questa analisi, non solo ha permesso di confermare la scelta di FOCE come metodo preferenziale, ma si è anche rivelata come un potente strumento per valutare la precisione delle stime dei parametri di popolazione. Successivamente, è stato messo a punto e ottimizzato un modello di popolazione, conservando nella matrice di covarianza solo i termini di correlazione fra i parametri SI-P2 e SG-VOL. Questo modello è servito come base per la successiva integrazione di covariate nel modello. Al momento dell’esecuzione degli esperimenti, infatti, sono stati raccolti alcuni dati sui pazienti, fra cui altezza, peso, sesso, età, glicemia e insulinemia basali, informazioni sul grasso corporeo. È stata effettuata una analisi per determinare quali fra queste variabili potessero essere usate per spiegare parte della variabilità nei valori dei parametri del modello minimo fra i diversi soggetti. Il risultato è un modello che integra queste informazioni direttamente nelle sue equazioni, mentre i coefficienti di regressione per ognuno dei predittori diventano veri e propri parametri del modello e il loro valore viene ottimizzato insieme agli altri parametri di popolazione. L’analisi effettuata ha trovato come buoni predittori per SI e P2 l’ età, l’insulinemia basale e il grasso addominale, che in ambo i parametri riescono a spiegare una buona fetta della variabilità inter-individuale. Sia l’impiego di metodologie di popolazione, sia l’introduzione delle covariate nel modello, permettono di aumentarne il potere predittivo, e sono in grado di usare informazioni indipendenti dai soli dati sperimentali. Questo permette di mettere a punto dei protocolli di studio meno invasivi, meno costosi, e pertanto più adatti ad un impiego su larga scala: ulteriore ricerca potrebbe avere come obiettivo l’ottimizzazione di una sampling schedule ridotta, che si avvantaggi dell’utilizzo degli approcci di popolazione. Ad ogni modo, il dataset utilizzato in questa analisi comprende solo soggetti sani, ed è quindi caratterizzato da una quantità limitata di variabilità di popolazione. Pertanto, sarebbe necessario ripetere l’analisi su altri dataset, per poter confermare questi risultati, in particolare sulle covariate. Inoltre, in una sezione successiva, un metodo di popolazione è stato applicato anche ad un altro problema diverso, la stima del Disposition Index (DI) del glucosio. Questo è un indice calcolato combinando sensitività e responsività all’insulina, che serve per testare l’effettiva efficacia del sistema di controllo della glicemia. Ci sono due versioni proposte per la formula, una semplificata, che consiste semplicemente nel prodotto (da cui il nome di Legge Iperbolica), e una con un parametro aggiuntivo ad esponente della sensitività all’insulina. Per poter calcolare il DI medio in una popolazione, e per poter saggiare quale delle due formule sia effettivamente più adatta, in letteratura si trovano alcuni approcci basati su un fit geometrico. Tuttavia, alcune approssimazioni sono utilizzate per semplificare il fit, e sono molte le questioni metodologiche spesso sottovalutate. Pertanto viene presentato qui un nuovo metodo Total Least Squares (TLS) che affronta il problema senza l’impiego di approssimazioni. Grazie ad alcune simulazioni, si è effettuato un paragone fra i vari metodi disponibili, e il nuovo algoritmo è risultato migliore rispetto ai predecessori. Tuttavia, tutti gli algoritmi basati su fit si fondano sull’ipotesi che i soggetti appartenenti alla popolazione abbiano lo stesso valore di DI, e l’unica fonte di incertezza nei dati sia dovuta alla stima degli indici di secrezione e sensitività. Questa ipotesi sembra una forte semplificazione e, in effetti, l’analisi di un dataset reale sembra confermare la presenza di variabilità di popolazione nei valori del DI. Ulteriori simulazioni hanno confermato che tutti metodi basati su fit, TLS compreso, falliscono quando la variabilità di popolazione è presente. Pertanto, è stato ideato un altro metodo basato su approcci di popolazione e, in particolare, su NonLinear Mixed-Effects Models (NLMEM), che è in grado di separare la variabilità nei dati, poiché fondato su ipotesi meno restrittive. Tale algoritmo stima i parametri della distribuzione di probabilità congiunta degli indici di secrezione e sensitività, e poi estrae le informazioni sul DI dalla matrice di covarianza. NLMEM si è rivelato equivalente a TLS quando non c’è variabilità di popolazione, ma di gran lunga più affidabile quando le ipotesi per il fit geometrico non sono rispettate, pertanto si è deciso di utilizzarlo sul dataset reale per testare la validità della legge iperbolica. Anche se una validazione su altri dataset è auspicabile per validare i risultati qui presentati, il modello con il parametro aggiuntivo sembra spiegare i dati in maniera più soddisfacente, e il valore del parametro sembra dipendere dalla coppia di parametri usata per la definizione del DI, più che dalla popolazione in esame (anziani piuttosto che giovani). Inoltre, nello studio qui proposto, il punto di partenza sono stati i valori degli indici di secrezione già calcolati, insieme con la loro precisione, grazie ad un metodo tradizionale; un approccio ancora più potente consisterebbe nell’utilizzare un modello di popolazione per stimare contemporaneamente sia gli indici di secrezione che sensitività, sia i parametri della loro distribuzione di popolazione, da cui ricavare le informazioni sul DI. Riassumendo, in questo lavoro si sono messi in luce i vantaggi dell’applicazione di approcci di popolazione nello studio nel diabete. Le potenzialità sono molte, dal miglioramento delle stime dei parametri individuali grazie all’uso dei prior di popolazione o di covariate e la relativa possibilità di mettere a punto protocolli di studio più leggeri, fino all’analisi di situazioni in cui la struttura gerarchica della variabilità è un aspetto cruciale.
28-gen-2009
Diabetes mellitus is not only a very serious disease, causing discomfort and pain to millions across the world, but with the aging of the population and the prevalence of a sedentary lifestyle, it is assuming the proportion of a real epidemic, becoming a public health and social emergency. In answer to this call, research on diabetes has been intensely carried out in the past decades and the knowledge and understanding of its etiology have been significantly improved. However, investigation is still ongoing, many important questions are still unanswered, and the causes eliciting the pathogenesis and progression of the diseases are not yet fully understood. During all these years of research, sophisticated tools have been developed to study the glucose-insulin metabolic system in vivo, and cope with the inaccessibility to direct measurement of some of the key phenomena underlying the glycemic control. Such tools, as complex test protocols and model-based approaches used to interpret the experimental data, have proven powerful weapons of investigation, but, considering the epidemic proportion of the disease, there is great demand for approaches that are less invasive, less expensive and therefore more suitable for large clinical studies. Mathematical and statistical techniques that collectively go under the name of “population approaches” have already been developed and are largely employed for pharmacokinetics and pharmacodynamics studies in drug development. However, in spite of their interesting potential, they have not found significant application yet in the context of metabolism research. Thus, investigation is required to probe the feasibility and relevance of such approaches in the study of diabetes. The research presented here addresses these issues, and is aimed at applying these sophisticated techniques to the modeling of glucose metabolism, first assessing the applicability of these approaches and tailoring them to the problem under investigation, then employing them to the analysis of data from population studies. First, a simulated but physiologically plausible dataset is created based on previous real data and employed as a benchmark to assess the applicability of population approaches to the Intra Venous Glucose Tolerance Test (IVGTT) minimal model of glucose disappearance. Various population algorithms have been proposed in the literature, therefore a thorough comparison of the available methodologies is performed, and a sparse data situation is replicated to test the robustness of these methods in such cases. The results select the First-Order Conditional Estimation as method of choice and show its robustness to poor sampling. Then, a larger real dataset is employed and analyzed with the same techniques, this time assessing the quality of the results with a Monte Carlo sampling approach to profile the likelihood function. Then the population model is optimized, to provide a base model for the following covariate analysis. In fact, at the time of the experiments, demographic data about the subjects has been collected, and the purpose of the covariate analysis is to determine whether some of these variables are significantly correlated with the model parameters and can be successfully used to explain part of the differences among the subjects. After a first exploratory regression analysis, different models are tested, integrating the most significant covariates directly as predictors into the model. In agreement with previous findings in literature, basal insulinemia, age and visceral abdominal fat are shown to be good predictors of insulin sensitivity and their introduction in the model is able to account for about a third of the between-subject variability of the values of this parameter. The use of covariates enhances the explanatory power of the model and opens the way for devising new lighter experimental protocols. One of the main benefits of the population approaches, in fact, consists in their ability to borrow information across the population and use it to improve the individual parameter estimates. As a result, the experimental protocols can be less demanding, both in invasiveness and economic cost, allowing in this way a broader use in large clinical studies. The results presented here, in fact, show that population approaches are very robust and able to cope with sparse data situations. In addition, the use of covariates in the model enhances even further the power of such techniques and makes them very appealing approaches to the study of glucose-insulin metabolism. In addition, a population approach is proposed to solve the problem of the estimation of the Disposition Index (DI) of glucose tolerance in a population. Since both insulin sensitivity and beta-cell response must be taken into account to assess the actual efficiency of the glucose disposal system, the DI was proposed to condense the information conveyed by both these parameters in a single value. Traditionally, approaches based on a geometrical fit are used to determine the value of DI in a population of subjects characterized by the same degree of glucose tolerance. However, all these methods rely on the assumption that all the subjects in the population share exactly the same value of DI and are therefore not able to account for the population variability, which is inevitably inherent to biological data. In this work, a NonLinear Mixed-Effects Approach is proposed to analyze the distribution of the insulin sensitivity and beta-cell response indices across a population, and then obtaining the information on the DI from the population features thus estimates. Comparisons on simulated datasets between the newly proposed method and its competitors prove that a proper model of the variability structure is essential to avoid severe bias in the estimates.
Nonlinear mixed-effects modelling Population approaches Glucose-insulin system Two-Stage methods
Nonlinear Mixed-Effects Modelling of Glucose-Insulin Metabolism / Denti, Paolo. - (2009 Jan 28).
File in questo prodotto:
File Dimensione Formato  
DentiPaolo_PhDThesis.pdf

accesso aperto

Tipologia: Tesi di dottorato
Licenza: Non specificato
Dimensione 2.59 MB
Formato Adobe PDF
2.59 MB Adobe PDF Visualizza/Apri
Pubblicazioni consigliate

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11577/3426016
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact