Información

¿Cómo dar una interpretación biológica a este retrato de fase?

¿Cómo dar una interpretación biológica a este retrato de fase?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Considere el siguiente sistema y analice su comportamiento.

$$ begin {array} {rl} frac {dA} {dt} & = A left (2- frac {A} {5000} - frac {L} {100} right) frac {dL} {dt} & = L left (- frac {1} {2} + frac {A} {10000} right) end {array} $$

El analisis

Tiene $3$ puntos de equilibrio. Conozco la estabilidad de los tres puntos, pero no estoy seguro de interpretar correctamente su significado según el retrato de fase. $ x_1, x_2 $ son puntos de silla y $ x_3 $ es un punto estable que son

$$ overline x_1 = (0,0) $$

$$ overline x_2 = (10000,0) $$

$$ overline x = (5000,100) $$

Según el retrato de fase, creo que el comportamiento del sistema se describe como:

Por cada punto $ (A, L) $ dado en el primer cuadrante, donde $ A $ es el número de pulgones a la vez $ t $ y $ L $ es el número de mariquitas a la vez $ t $, lo tendremos en el futuro, el número máximo de mariquitas y pulgones será $(5000,100)$ respectivamente. Esto también significa que ambas poblaciones nunca se extinguirán.

Incluso en el caso de que haya solo un número reducido (cerca de 0) de mariquitas, su población crecerá y se establecerá también.

Mi pregunta

¿Me perdí algo importante en el biológico descripción al retrato de fase?


¡No creo que te hayas perdido nada importante!

Podría investigar el comportamiento cíclico en torno al equilibrio. Por ejemplo, observar el tamaño variable de la población de áfidos puede comenzar por encima de su punto de equilibrio, luego sobrepasarlo y sobrepasarlo nuevamente para finalmente alcanzar el punto de equilibrio. Si se acerca al punto de equilibrio, es posible que observe un comportamiento cíclico prolongado antes de alcanzar el equilibrio.

Seguro que podría hacer todo tipo de análisis adicionales, como un análisis de estabilidad o la búsqueda de equilibrio cíclico, pero es fácil ver con este modelo simple que no surgirá nada muy complicado. También puede investigar qué valores de parámetro rompe este patrón clásico si lo hace.

Otra opción es hacer el modelo más complejo introduciendo una capacidad de carga (y luego investigar bajo qué tasa de crecimiento del pulgón el comportamiento se vuelve caótico), o estructura de la población, o lo que sea.

Es posible que aprenda mucho de él, pero es posible que aún desee echar un vistazo a la publicación ¿Qué previene la superpoblación de depredadores ?.

Recomiendo encarecidamente el libro A Biologist's Guide to Mathematical Modeling in Ecology and Evolution de Otto y Troy. Mostrará el tipo de análisis típico que se puede realizar para este tipo de sistemas.


¿Cómo dar una interpretación biológica a este retrato de fase? - biología

Math 122 - Cálculo para biología II
Semestre de otoño de 2004
Análisis cualitativo de ecuaciones diferenciales

& copy 2000, Todos los derechos reservados, SDSU & amp Joseph M. Mahaffy
Universidad Estatal de San Diego - Última actualización de esta página el 30 de abril de 2003

Análisis cualitativo de ecuaciones diferenciales

Esta sección examina ecuaciones diferenciales no lineales usando analisis cualitativo técnicas. Encontrar soluciones analíticas a las ecuaciones diferenciales puede ser muy difícil o imposible; sin embargo, a menudo el comportamiento de las ecuaciones se puede examinar desde una perspectiva cualitativa para determinar los tipos de comportamiento, lo que puede llevar a comprender los problemas de modelado. En las notas de Math 121, encontramos que el estudio de los equilibrios de sistemas dinámicos discretos nos permitió comprender mucho sobre el comportamiento de esos modelos. De manera similar, el análisis cualitativo de ecuaciones diferenciales puede proporcionar información valiosa sobre modelos biológicos complicados.

Comenzamos con el ejemplo clásico del modelo de crecimiento logístico, utilizando datos de un experimento con bacterias. Se encuentran y analizan los equilibrios para el modelo. Se ofrece una discusión de estas técnicas.

Las bacterias cultivadas en un laboratorio se inoculan en un caldo y luego se cultivan durante un período de tiempo. Normalmente, el patrón de crecimiento de cualquier cultivo bacteriano sigue un patrón regular. El cultivo tiene un período de retraso a medida que el cultivo inoculado se ajusta a las nuevas condiciones de crecimiento. A esto le sigue un período de crecimiento exponencial, donde la población bacteriana satisface el modelo de crecimiento maltusiano. A medida que aumenta la población de bacterias, ciertos nutrientes se vuelven limitantes (o hay una acumulación de productos de desecho que limitan el crecimiento). El crecimiento de las células bacterianas se ralentiza y el cultivo entra en una fase llamada crecimiento estacionario. Esto se caracteriza por que la población se nivela con la cultura utilizando diferentes vías para sobrevivir a los tiempos de escasez.

En el semestre anterior, estudiamos el modelo de crecimiento logístico discreto que mostró este tipo de comportamiento bajo ciertas condiciones sobre los parámetros. Sin embargo, el modelo de crecimiento logístico discreto solo pudo simularse y no resolverse explícitamente. El crecimiento de bacterias es un proceso mucho más continuo, por lo que su crecimiento se caracteriza mejor por una ecuación diferencial. En esta sección, desarrollaremos el modelo de crecimiento logístico continuo para el crecimiento de bacterias y mostraremos varias técnicas para analizar el modelo y relacionarlo con datos experimentales.

La profesora Anca Segall del Departamento de Biología de la Universidad Estatal de San Diego ha realizado muchos experimentos con la bacteria Staphylococcus aureus, un patógeno bastante común que puede causar intoxicación alimentaria. Los cultivos de crecimiento estándar de esta bacteria satisfacen el patrón de crecimiento logístico clásico discutido anteriormente. A continuación, presentamos los datos de un experimento en su laboratorio (por Carl Gunderson), donde se cultiva una cepa normal usando condiciones de control y se mide la densidad óptica (DO 650) para determinar una estimación del número de bacterias en el cultivo.

A continuación se muestra un gráfico de los datos (que muestra un cultivo teñido de Staphylococcus aureus) y el modelo de crecimiento logístico que se ajusta a los datos. Está claro que el modelo coincide razonablemente con los datos biológicos reales.

En este experimento, vemos que la población de bacterias comienza creciendo con bastante rapidez, pero luego se estabiliza. Por lo tanto, un modelo para el crecimiento de la población debe tener un componente correspondiente al crecimiento maltusiano y un término que represente los efectos de hacinamiento cuando el suministro de nutrientes ha disminuido. Recuerde que el modelo de crecimiento maltusiano continuo fue dado por la ecuación diferencial simple

P '= kP con P (0) = P 0, que tiene la solución P (t) = P 0 e -kt.

En nuestros estudios anteriores, vimos que el modelo de crecimiento logístico discreto estaba dado por

P n + 1 = P n + rP n (1 - P n / M), que se puede escribir P n + 1 - P n = rP n (1 - P n / M).

El término rP n corresponde al crecimiento maltusiano, mientras que el término - r P n 2 / M es un término cuadrático que representa los efectos de hacinamiento. Como en los argumentos hechos para pasar del modelo de crecimiento discreto de Malthus al modelo de crecimiento continuo de Malthus, donde el intervalo de tiempo entre n y n +1 se vuelve pequeño, el modelo de crecimiento logístico continuo se deriva de la ecuación anterior y se puede escribir

Esta ecuación diferencial fue introducida por primera vez por el biólogo belga Verhulst & # 912 & # 93, por lo que a veces se la denomina ecuación de Verhulst. Un ajuste de mínimos cuadrados no lineal a los datos de Anca Segall en el gráfico anterior proporciona el modelo de crecimiento logístico específico

(La búsqueda de los parámetros para este sistema utiliza una rutina de mínimos cuadrados no lineal. Para obtener más información sobre cómo ajustar los parámetros al modelo de crecimiento logístico, las notas de clase están disponibles en mi sitio web).

¿Podemos resolver esta ecuación diferencial?

Existe una solución para la ecuación diferencial de crecimiento logístico, que se puede encontrar en un hipervínculo a esta sección (Solución del modelo de crecimiento logístico). De hecho, hay un par de métodos que pueden resolver esta ecuación diferencial, ya sea la separación de variables (que luego usa técnicas especiales de integración) o el método de Bernoulli. Sin embargo, dado que muchas ecuaciones diferenciales no se pueden resolver o implican métodos complicados, queremos desarrollar técnicas más simples para comprender el comportamiento cualitativo de las ecuaciones diferenciales.

Comportamiento cualitativo de ecuaciones diferenciales

El modelo de crecimiento logístico continuo se puede analizar sin encontrar la solución exacta. Las técnicas siguen un análisis similar a los sistemas dinámicos discretos. Primero examinamos la ecuación diferencial para encontrar los equilibrios, luego determinamos el comportamiento de las soluciones cerca de esos equilibrios. A continuación detallamos un análisis típico utilizando la ecuación de crecimiento logístico.

Considere la ecuación de crecimiento logístico:

Comenzamos dibujando una gráfica de la función en el lado derecho de la ecuación diferencial, f (P).

La gráfica de f (P) muestra una parábola que interseca el eje P en P = 0 y P = 2000. Estas intersecciones P son donde f (P) = 0 o

Esto significa que no hay cambios en el crecimiento de la población o que la población está en equilibrio. Este es el primer paso en cualquier análisis cualitativo de una ecuación diferencial. Encuentre todos los equilibrios para la ecuación diferencial, que son simplemente todos los puntos donde la derivada de la función desconocida es cero.

La gráfica de f (P) nos da más información sobre el comportamiento del modelo de crecimiento logístico. Como se señaló anteriormente, los equilibrios ocurren en P e = 0 y P e = 2000. Observe que a la izquierda de P e = 0, f (P) & lt 0, mientras que a la derecha de P e = 0, f (P) & gt 0. Por tanto, cuando P & lt 0, dP / dt & lt 0 y P son decrecientes. (Tenga en cuenta que esta región está fuera de la región de importancia biológica). Cuando 0 & lt P & lt 2000, entonces dP / dt & gt 0 y P están aumentando. Además, podemos ver que el mayor aumento en el crecimiento de la población ocurre en P = 1000, donde ocurre el vértice de la parábola. Cuando P & gt 2000, entonces nuevamente dP / dt & lt 0 y P está disminuyendo.

Esta información nos permite dibujar lo que se llama un retrato de fase del comportamiento de esta ecuación diferencial a lo largo del eje P. El comportamiento de la ecuación diferencial se indica mediante flechas a lo largo del eje P, que se dirigen fácilmente según si la función f (P) es positiva o negativa. Usamos un punto sólido para representar un equilibrio, cuyas soluciones de la ecuación diferencial se acercan asintóticamente, y un punto abierto representa un equilibrio, donde las soluciones cercanas se alejan del equilibrio. Esto se muestra en un diagrama a continuación usando la gráfica de f (P).

Podemos esbozar fácilmente el comportamiento de las soluciones como funciones del tiempo usando este retrato de fase. A continuación se muestra una gráfica de las soluciones P (t) siendo t la variable independiente. Los equilibrios dan lugar a líneas horizontales (lo que significa que P (t) no cambia con el tiempo). Cuando los valores iniciales de P tienen el retrato de fase apuntando hacia la izquierda, entonces la solución está disminuyendo, mientras que las flechas hacia la derecha en el retrato de fase tienen las soluciones aumentando. No se permite que las soluciones se crucen en el diagrama variable en el tiempo que se muestra a continuación.

Las soluciones anteriores muestran que todas las condiciones iniciales positivas dan como resultado soluciones que eventualmente tienden hacia el equilibrio en 2000. La pendiente de la solución en cualquier momento se puede ver en la figura anterior con la pendiente que coincide con el valor de f (P).

Hay más ejemplos resueltos a través del hipervínculo habitual.

Stephen Jay Gould escribió muchos artículos para Historia Natural sobre varios temas de la evolución y fue una voz destacada en contra de la enseñanza de la "Ciencia de la Creación". También fue un experto en la evolución de los gasterópodos. El caparazón de un caracol exhibe quiralidad, lo que significa que el caparazón de caracol desarrolla una espiral hacia la izquierda (sinistral) o hacia la derecha (dextral) en relación con el eje central. En & # 913 & # 93, escribe que la concha india, Turbinella pyrum, es principalmente un gasterópodo diestro. Sin embargo, existen proyectiles para zurdos y son "extremadamente raros". (Los indios ven las conchas como diestras desde su perspectiva, lo que hace que las conchas raras sean muy sagradas.) El dios hindú "Vishnu, en la forma de su avatar más célebre, Krishna, sopla esta caracola sagrada para llamar al ejército de Arjuna a la batalla ". Entonces, ¿por qué la naturaleza favorece a los caracoles con una mano particular? Gould señala que la gran mayoría de los caracoles crecen en forma dextral.

Un modelo matemático discutido en el libro de Clifford Henry Taubes & # 914 & # 93 proporciona un modelo matemático simple para predecir el sesgo de las formas dextral o sinistral para una especie dada.

  • Suponga que la probabilidad de que un caracol dextral se reproduzca con un caracol sinistral es proporcional al producto del número de caracoles dextrales por caracoles sinistrales.
  • Suponga que dos caracoles sinistral siempre producen un caracol sinistral y dos caracoles dextrales producen un caracol dextral. Suponga que una pareja dextral-sinistral produce descendencia dextral y sinistral con la misma probabilidad.

Uno podría y debería debatir estos supuestos. Tenga en cuenta que la primera suposición supone implícitamente que, dada la elección de parejas, un caracol dextral tiene el doble de probabilidades de elegir un caracol dextral que un caracol sinistral. (Puede verificar esta implicación usando probabilidad básica). Sería útil tener una verificación experimental real de estos supuestos.

Sea p (t) la probabilidad de que un caracol sea dextral. Taubes presenta el siguiente modelo que exhibe cualitativamente el comportamiento descrito por los supuestos anteriores.

donde a es una constante positiva. Nos gustaría ver el comportamiento de esta ecuación diferencial y determinar qué predicen sus soluciones sobre la quiralidad de las poblaciones de caracoles.

Aunque la ecuación diferencial anterior podría resolverse utilizando la separación de variables y algunas técnicas de integración, la solución no es particularmente fácil de obtener. Sin embargo, utilizando el enfoque geométrico proporcionado por nuestras técnicas de análisis cualitativo, esta ecuación diferencial se puede analizar con relativa facilidad para determinar por qué es probable que los caracoles estén en forma dextral o sinistral.

El análisis comienza graficando la función de p en el lado derecho de la ecuación diferencial. En el gráfico siguiente, vemos que las intersecciones p son 0, 1/2 y 1. Por tanto, los equilibrios para este modelo son p e = 0, 1/2 y 1. Además, vemos que la función es negativa para 0 & lt p & lt 1/2 y positiva para 1/2 & lt p & lt 1. De ello se deduce que todas las soluciones de la ecuación diferencial disminuyen siempre que 0 & lt p & lt 1/2 y aumentan siempre que 1/2 & lt p & lt 1. Por lo tanto, tenemos que el equilibrio en p e = 1/2 es inestable (denotado por el círculo abierto), y los equilibrios en p e = 0 y 1 son estables (denotados por los círculos cerrados). El retrato de fase de este modelo se muestra en el eje p con el gráfico de la función en el lado derecho de la ecuación diferencial dibujada para indicar la dirección en la que deben apuntar las flechas.

A continuación, mostramos las soluciones reales dibujadas por Maple para una colección de diferentes condiciones iniciales utilizando el espacio de solución con t como variable independiente yp como variable dependiente. Estas soluciones se muestran a continuación.

De los dos diagramas anteriores es fácil ver que para este modelo, las soluciones tienden hacia uno de los equilibrios estables, p e = 0 o 1. En el caso de que la solución tienda a p e = 0, entonces la probabilidad de que se encuentre un caracol dextral cae a cero, por lo que la población de caracoles tiene la forma sinistral. Cuando la solución tiende hacia el equilibrio p e = 1, entonces la población de caracoles prácticamente todos tienen la forma dextral. Esto es lo que se observa en la naturaleza sugiriendo que nuestro modelo exhibe el comportamiento de la evolución de los caracoles. ¡Esto no significa que el modelo sea un buen modelo! Simplemente significa que el modelo exhibe el comportamiento básico observado experimentalmente en los experimentos biológicos.

& # 911 & # 93 T. Carlson & Uumlber Geschwindigkeit und Gr & oumlsse der Hefevermehrung en W & uumlrze. Biochem. Z.57: 313-334, 1913.

& # 912 & # 93 P. F. Verhulst, "Aviso sur la loi que la población pleito dans son accroissement", Corr. Matemáticas. et Phys. 10 (1838), 113-120.

& # 913 & # 93 S. J. Gould, "Left Snails and Right Minds", Natural History, abril de 1995, 10-18, y en la compilación "Dinosaur in a Haystack" (1996)

& # 914 & # 93 C. H. Taubes, Modelado de ecuaciones diferenciales en biología, Prentice Hall, 2001.


El modelado matemático de la interacción virus-célula tiene una larga historia. Basados ​​en el vasto y diverso campo de la epidemiología teórica, estos modelos matemáticos sirven como herramientas valiosas para explicar datos empíricos, predecir posibles resultados de la infección por virus y proponer la estrategia óptima de terapia antivirus [1, 2]. El indiscutible éxito de los modelos matemáticos de ciertos sistemas virus-huésped, en particular, la infección por VIH [3, 4], proporciona una esperanza razonable de que se puedan lograr avances sustanciales también en otras áreas de la virología.

Se han dedicado esfuerzos igualmente extensos durante muchos años a la modelización matemática del desarrollo del cáncer. Los modelos estocásticos que tienen en cuenta las mutaciones aleatorias y la proliferación celular demostraron ser útiles en el contexto de la epidemiología y los datos estadísticos [5] y para modelar el inicio y la progresión del cáncer en términos de evolución somática [6]. Los modelos deterministas de crecimiento tumoral también han resultado valiosos. Muchos de ellos han abordado el crecimiento de tumores vasculares y avasculares aprovechando métodos tomados de la física [7, 8], pero algunos utilizan modelos de ecología de poblaciones para tratar el tumor como una sociedad dinámica de células que interactúan [9-11]. Una variedad de enfoques matemáticos contribuyen a modelar la progresión del cáncer desde diferentes puntos de vista y hacen un balance de varios factores que afectan el crecimiento tumoral ([12, 13] y referencias allí).

Aquí abordamos un proceso complejo que implica tanto la interacción virus-célula como el crecimiento tumoral, a saber, la interacción de los denominados virus oncolíticos con tumores. Los virus oncolíticos son virus que infectan y destruyen específicamente las células cancerosas, pero no las células normales [14-17]. Se han estudiado muchos tipos de virus oncolíticos como agentes terapéuticos candidatos, incluidos adenovirus, herpesvirus, reovirus, paramixovirus, retrovirus y otros [15, 17]. Probablemente, el virus oncolítico mejor caracterizado, que ha llamado mucho la atención, es ONYX-015, un adenovirus atenuado que infecta selectivamente las células tumorales con un defecto en el p53 gen [16]. Se ha demostrado que este virus posee una actividad antitumoral significativa y ha demostrado ser relativamente eficaz para reducir o eliminar tumores en ensayos clínicos [18-20]. Por lo tanto, en estudios de pacientes con carcinoma de células escamosas de cabeza y cuello, la tasa de respuesta fue significativamente mayor (78%) en los pacientes que recibieron la combinación de terapia viral y quimioterapia que en los pacientes que fueron tratados con quimioterapia sola (39%). Además, un pequeño número de pacientes que fueron tratados con el virus oncolítico mostraron regresión de las metástasis [15]. Aunque la seguridad y la eficacia siguen siendo preocupaciones sustanciales, se han desarrollado varios otros virus oncolíticos que actúan según principios diferentes, incluida la transcripción específica del tumor del genoma viral, y algunos de estos virus han entrado o están a punto de entrar en ensayos clínicos [15, 21– 23].

El efecto oncolítico puede resultar de al menos tres modos distintos de interacción virus-huésped [15, 17]. El primer modo implica ciclos repetidos de replicación viral en las células tumorales que conducen a la muerte celular y, en consecuencia, a la reducción del tumor y, potencialmente, a la eliminación. El segundo modo consiste en la reproducción de virus de bajo nivel que, sin embargo, da como resultado la producción de una proteína citotóxica, que luego causa daño celular. El tercer modo implica la infección por virus de las células cancerosas que induce inmunidad antitumoral. Las células cancerosas poseen antígenos débiles para la sensibilización inmunitaria del huésped. La infección por virus causa inflamación y penetración de linfocitos en el tumor, y los antígenos del virus provocan una mayor sensibilidad a la muerte mediada por el factor de necrosis tumoral.

Aunque los modos indirectos de tratamiento del cáncer con virus basados ​​en la producción de proteínas citotóxicas o la inmunidad antitumoral pueden ser prometedores, la lisis directa de las células tumorales por un virus oncolítico es la estrategia principal actual. Las interacciones entre el tumor en crecimiento y el virus oncolítico en replicación son muy complejas y no lineales. Por lo tanto, para definir con precisión las condiciones que se requieren para una terapia exitosa mediante este enfoque, se necesitan modelos matemáticos. Los experimentos con xenoinjertos de tumores humanos en ratones desnudos han demostrado que el efecto de la infección por virus oncolítico en los tumores puede variar desde ningún efecto aparente, hasta la reducción y estabilización de la carga tumoral (es decir, el tamaño total de un tumor), hasta la eliminación del tumor. [24]. También se ha informado de una regresión completa de los tumores en algunos pacientes tratados con virus oncolíticos como parte de los ensayos clínicos [25]. Sin embargo, los modelos matemáticos más simples que describen un tumor en crecimiento infectado con un virus oncolítico no incorporan todos los resultados posibles, en particular, estos modelos no permiten la eliminación del tumor [12, 26]. A continuación, presentamos un modelo conceptual de la interacción entre las células tumorales y el virus, que, según los valores de los parámetros del sistema, presenta varios comportamientos, incluida la eliminación determinista de las células cancerosas.

Recientemente se desarrollaron varios modelos matemáticos que describen la evolución de los tumores bajo inyección viral. Nuestro modelo se basa en el modelo de Wodarz [12, 26] pero introduce varias modificaciones plausibles. Wodarz [12, 26] presentó un modelo matemático que describe la interacción entre dos tipos de células tumorales (las células que están infectadas por el virus y las células que no están infectadas pero que son susceptibles al virus en la medida en que tienen el fenotipo canceroso) y el sistema inmunológico. Aquí, consideramos solo la muerte directa de la célula tumoral por un virus oncolítico y, en consecuencia, ignoramos los efectos del sistema inmunológico. El modelo resultante tiene la forma general

dónde X(t) y Y(t) son los tamaños de las poblaciones de células infectadas y no infectadas, respectivamente F I(X, Y) I = 1, 2, son las tasas de natalidad per cápita de células infectadas y no infectadas y gramo(X, Y) es una función que describe la fuerza de la infección, es decir, el número de células recién infectadas por el virus liberado por una célula infectada por unidad de tiempo. Tenga en cuenta que no existe una ecuación separada para los viriones libres, se supone que la abundancia de viriones es proporcional a la abundancia de células infectadas, lo que puede justificarse si la dinámica del virus libre es rápida en comparación con el recambio de las células infectadas [2]. El modelo también asume que, tras la división de las células infectadas, el virus se transmite a ambas células hijas. Esto es cierto para los virus que se integran en el genoma de las células tumorales, pero esta suposición también debería ser apropiada para los virus que no se integran porque la producción activa de viriones debería dar como resultado una probabilidad muy alta de que el virus se transmita a ambas células hijas. Las funciones utilizadas por Wodarz [26] son

dónde r1, r2, D, a, B, K son parámetros no negativos. Las suposiciones son que el tumor crece de manera logística (posiblemente, con diferentes tasas de crecimiento para las células tumorales infectadas y no infectadas), y la incidencia de infección es proporcional al producto XY el último supuesto se basa en una analogía con la cinética química, a saber, la ley de acción de masas.

El principal resultado del análisis del modelo (1) - (2) consiste en definir las condiciones necesarias para la máxima reducción de la carga tumoral. Se ha sugerido que "debido a que usamos un modelo determinista, el tumor nunca puede extinguirse por completo, pero puede reducirse a niveles muy bajos", la eliminación del tumor podría ocurrir a través de efectos estocásticos que no son parte del modelo per se [26]. . En contraste, aquí mostramos que una simple modificación del modelo (1) - (2) puede conducir a regímenes dinámicos que describen la eliminación determinista de las células tumorales.

Otros modelos matemáticos para la dinámica tumor-virus son, principalmente, modelos espacialmente explícitos, descritos por sistemas de ecuaciones diferenciales parciales (PDE) (que es una extensión obvia y necesaria de los modelos ODE ya que la mayoría de los tumores sólidos tienen una estructura espacial distinta) la dinámica local , sin embargo, generalmente se modela mediante sistemas de EDO que se parecen mucho a un modelo básico de dinámica de virus [1]. Wu y col. modeló y comparó la evolución de un tumor en diferentes condiciones iniciales [27]. Friedman y Tao (2003) presentaron un análisis matemático riguroso de un modelo algo diferente [28]. El uso de PDE para la propagación del virus es la característica principal que distingue el modelo de Friedman y Tao [28] del modelo de Wu et al. [27]. Recientemente, Wein et al. [29] incorporó la respuesta inmune en su modelo anterior [27]. En este nuevo estudio, se utilizaron datos preclínicos y clínicos recientes para validar el modelo y estimar los valores de varios parámetros clave, y se concluyó que los virus oncolíticos deben diseñarse para una rápida propagación intratumoral y evitación inmunitaria, además de la selectividad tumoral. y seguridad [29]. En un estudio más reciente, se ha descrito un análisis de un sistema ODE, que es una aproximación simplificada al modelo PDE descrito anteriormente y tiene algunas similitudes con el modelo de Wodarz [30]. Tao y Guo [31] ampliaron recientemente el modelo de Wein et al. [29], demostró la existencia global y la singularidad de la solución para el nuevo modelo, estudió la dinámica de esta nueva terapia contra el cáncer y exploró un umbral explícito de la intensidad de la respuesta inmune para controlar el tumor. Wodarz también desarrolló una extensión de su modelo anterior para estudiar las ventajas y desventajas de los virus replicantes versus no replicantes para la terapia del cáncer [32].

Un aspecto distintivo de todos estos modelos es la descripción del proceso de infección (o, si se modela explícitamente la dinámica del virus libre, también el contacto virus-célula) utilizando la ley de acción masiva, que establece que la tasa de cambio de la La población de células no infectadas es proporcional (si no se tienen en cuenta los efectos demográficos) al producto. XY (dónde X y Y son como antes, o Y significa población de virus si esta última se incluye en el modelo). Bajo la cinética de acción de masas y el supuesto de una duración de contacto infinitesimalmente corta y una mezcla homogénea de las poblaciones de células, la tasa de contacto es proporcional al producto XY de las respectivas densidades. Hay situaciones en las que la acción masiva puede ser una buena aproximación, sin embargo, en muchos casos de la vida real, solo es aceptable cuando X

Y, dando tarifas poco realistas cuando X & gt & gt Y o X & lt & ltY. En particular, para grandes poblaciones de células, la propagación finita y a menudo lenta del virus evita que infecte un gran número de células por célula infectada por unidad de tiempo, de modo que se requiere una aproximación más realista del proceso de infección. El supuesto subyacente a la acción de masas es que la tasa de contacto es una función lineal de la densidad, norte = X + Y. En el otro extremo, la tasa de contacto podría ser independiente de la densidad del hospedador. Suponiendo que los huéspedes infectados y no infectados se mezclan al azar, esto conduciría a la función de transmisión de la forma bXY/(X + Y). Este modo de transmisión se denomina a menudo transmisión "dependiente de la frecuencia" [33]. Esta función de transmisión tiene sentido cuando X & gt & gt Y o X & lt & ltY porque se excluyen de la consideración tanto las velocidades de transmisión extremadamente bajas como las extremadamente altas. El supuesto de acción masiva, que se remonta al trabajo pionero de Kermak y McKendrick [34], casi siempre se ha utilizado para la transmisión en modelos huésped-patógeno, en algunos casos, de forma no crítica. Se han utilizado otros modos de transmisión [33] y, lo que es más importante, pueden producir resultados bastante diversos. Enfatizamos que el modo de transmisión determina las respuestas probables del sistema al control, por lo que es vital identificar el enfoque más apropiado para la transmisión del modelo. En particular, matemáticamente, la transmisión "dependiente de la frecuencia", debido al campo vectorial no analítico en el origen, produce un resultado cualitativamente diferente, en comparación con la transmisión de "acción masiva".

El modelo (1) - (2) es una versión del modelo clásico depredador-presa de una comunidad biológica desarrollado por primera vez por Lotka [35] y Volterra [36] en 1925-1931 el término bXY describe la correspondencia más simple entre el consumo de presas y la producción de depredadores similar a la ley de acción de masas. Un elemento crucial en los modelos de comunidades biológicas en la forma (1) es la respuesta funcional gramo(X, Y), es decir, el número de presas consumidas por depredador por unidad de tiempo para el número dado de presas X y depredadores Y. En el modelo de Volterra y en el modelo (1) - (2), esta función es bX. Otro modelo bien conocido ha sido desarrollado por Holling [37] y se ha aplicado ampliamente en epidemiología [38]. Bajo este modelo, gramo(X, Y) = bX/(1 + abX), que tiene en cuenta el efecto de saturación. Estos dos tipos de posibles respuestas funcionales (y muchas otras) no dependen de la densidad de depredadores, es decir, gramo(X, Y) = gramo(X) y, en consecuencia, Arditi y Ginzburg las denominaron «dependientes de la presa» [39]. En muchos casos, es más realista suponer que la respuesta funcional depende de la relación (gramo(X, Y) = gramo(z), dónde z = X/Y [39]). Si consideramos una función de tipo Holling gramo(z) = bz/(1 + z), luego obtenemos de nuevo

En (3), el significado de B es la tasa de infección, es decir, el número medio de infecciones que una célula infectada puede provocar por unidad de tiempo. En la terminología de los modelos epidémicos, se podría decir que ese término de tasa refleja una mezcla proporcional en contraposición a una mezcla homogénea [40].

Los modelos dependientes de razón presentan un desafío con respecto a su dinámica cerca del origen debido al hecho de que no están definidos en (0, 0). Berezovskaya y col. demostraron que, dependiendo de los valores de los parámetros, el origen puede tener su propia cuenca de atracción en el espacio de fase [41], lo que corresponde a la extinción determinista de ambas especies [40-43]. En el contexto de la interacción entre virus oncolíticos y tumores, está claro que los modelos dependientes de la relación muestran propiedades dinámicas originales que podrían ser directamente relevantes para la posibilidad de erradicación de tumores mediante terapia viral.

Aquí, mostramos que un cambio plausible del sistema dinámico que modela el crecimiento de dos poblaciones de células en competencia, una de las cuales está infectada por un virus y la otra no está infectada, puede resultar en un cambio notable en la dinámica del modelo. Además, los regímenes dinámicos adicionales, que no surgen en el modelo original, podrían ser particularmente importantes con respecto al problema biológico subyacente, la terapia con virus oncolíticos para cánceres.


Modelo y métodos

Para desarrollar nuestra metodología para analizar el comportamiento transitorio en sistemas dinámicos no autónomos, utilizamos un modelo de interruptor de palanca simple (ver [22], y sus referencias) con parámetros dependientes del tiempo. Consideramos dos genes que interactúan X y Y (Figura 1B, panel 1). Las concentraciones de los productos proteicos correspondientes están etiquetadas. X y y. X y Y se reprimen mutuamente, se activan linealmente mediante señales externas y pueden activarse automáticamente (Figura 1B, panel 1). Los productos proteicos se descomponen linealmente dependiendo de su concentración. La formulación matemática de nuestro modelo de interruptor de palanca viene dada por

donde los parámetros α X y α y representan la activación externa de los genes X y Y respectivamente. Las funciones sigmoideas con coeficientes de Hill de 4 se utilizan para representar la autoactivación y la represión mutua, donde los parámetros a y C determinar los umbrales de activación automática, mientras B y D determinar los umbrales para la represión mutua. Las tasas de desintegración de proteínas están representadas por parámetros λ X y λ y.

The toggle switch model (1) exhibits different dynamical regimes depending on the values of its parameters (Figure 2A–C). Its name derives from the fact that it can exhibit bistability over a wide range of parameters. When in this bistable region of parameter space, the underlying phase portrait has two attracting states and one saddle point (Figure 2B). All phase portraits associated with parameters in the bistable range are topologically equivalent to each other, meaning that they can be mapped onto each other by a continuous deformation of phase space called a homeomorphism [34].

Dynamical regimes of the toggle switch model. The toggle switch model can exhibit three different dynamical regimes depending on parameter values. (A) In the monostable regime, the phase portrait has one attractor point only (represented by the blue dot on the quasi-potential landscape). At this attractor, both products of X y Y are present at low concentrations. (B) In the bistable regime, which gives the toggle switch its name, there are two attractor points (shown in different shades of blue) and one saddle (red) on a separatrix (black line), which separates the two basins of attraction. The attractors correspond to high X, low y (dark blue), or low X, high y (light blue). The two factors never coexist when equilibrium is reached in this regime. (C) In the tristable regime, both bistable switch attractors and the steady state at low co-existing concentrations are present (shown in different shades of blue). In addition, there are two separatrices with associated saddle points (red). These regimes convert into each other as follows (double-headed black arrows indicate reversibility of bifurcations): the monostable attractor is converted into two bistable attractors and a saddle point through a supercritical pitchfork bifurcation the saddle in the bistable regime is converted into an attractor and two additional saddles in the tristable regime through a subcritical pitchfork bifurcation the bistable attractors and their saddles collide and annihilate in two simultaneous saddle-node (or fold) bifurcations to turn the tristable regime into a monostable one. Graph axes as in Figure 1B, Panel 4.

The toggle switch model has two other dynamical regimes: monostable and tristable. Phase portraits associated with parameters in the monostable range have only one attractor point (Figure 2A), while those in the tristable range have three attractor states and two saddle points (Figure 2C). Again, phase portraits within each regime are topologically equivalent to each other. While phase space can be geometrically deformed within each regime (through movements of attractors or separatrices), its topology only changes when one regime transitions into another through different types of bifurcations [32, 34] (Figure 2). The transition from monostable to bistable is known to be governed by a supracritical pitchfork, the transition from bistable to tristable involves a subcritical pitchfork bifurcation, and the transition from tristable to monostable takes place through two simultaneous saddle-node bifurcations involving the two attractors labelled in darker blue in Figure 2C.

Definition of the potential landscape

Potential landscapes can only be calculated explicitly for the class of dynamical systems called gradient systems [32]. A two-variable gradient system is a dynamical system

which satisfies the following relationship between partial derivatives

For gradient systems, it is possible to calculate a closed-form (explicit) potential function, V(X,y) such that

The local minima on the two-dimensional potential surface given by V(X,y) correspond mathematically to the steady states of the system in (2) since, if (X ∗ , y ∗ ) is such that

and, therefore, (X ∗ , y ∗ ) is a steady state of (2).

Calculating quasi-potential landscapes

Condition (3) will not always be met. In particular, dynamical systems representing gene interaction networks are not in general gradient systems, and therefore an associated potential function and landscape may not exist. In such cases, we can still take advantage of the visualisation power of potential landscapes by approximating the true potential using a numerical method. The numerical approximation method we adopt for our study was developed by Bhattacharya and colleagues [38] using a toggle switch model very similar to the one used here. This allows us to calculate a quasi-potential landscape for any specific set of fixed parameter values.

The quasi-potential, which we denote by V q, is defined to decrease along all trajectories of the dynamical system as they progress on the phase portrait over time

Δ X y Δ y are defined as small-enough increments along the trajectory such that D X/D t y D y/D t can be considered constant in the interval [(X,X+Δ X),(y,y+Δ y)]. In addition, Δx = dx dt Δt and Δy = dy dt Δt , where Δ t is the time increment. Substituting into equation 7, we obtain

Δ V q has been formulated in such a way that, for positive time increments Δ t, Δ V q is always negative along the unfolding trajectory and is, in effect, a Lyapunov function of the two-gene dynamical system [32]. This ensures that trajectories will always “roll” downhill on the quasi-potential surface. Just as in the case of closed-form potential, the steady states of the system (X ∗ ,y ∗ ) correspond to the local minima on the quasi-potential surface since Δ V q(X ∗ ,y ∗ )=0.

We apply the numerical approximation method described above to trajectories with various initial points on the X-y plane. This yields a sampled collection of trajectories with quasi-potential values associated to every one of their points. Next, we apply the following two assumptions, in order to construct a continuous quasi-potential surface from this sample of discrete trajectories [38]:

Two trajectories with different initial conditions that converge to the same steady state must also converge to the same final quasi-potential level (normalisation within basins of attraction).

Two adjacent trajectories that converge to different steady states will be taken to start from the same initial quasi-potential level (normalisation between basins of attraction).

Finally, interpolation of all the normalised trajectories results in a continuous quasi-potential landscape. Bhattacharya et al.[38] validated this approach by demonstrating that the quasi-potential values of the steady states were inversely correlated with their probability of occurrence using a stochastic version of the toggle switch dynamical system.

Approximating non-autonomous trajectories

As we have argued in the Background Section, we cannot generally assume that parameter values remain constant over time when modelling biological processes. We take a step-wise approximation approach to the change in parameter values to address this problem (Figure 3). We chose a time increment (step size) as small as possible. Parameter values are kept constant for the duration of each time step. As a consequence, the associated phase portrait will also remain constant during this time interval, and is visualised for each step by calculating a quasi-potential landscape as described in the previous section (Figure 3C, top row).

Numerical approximation of non-autonomous trajectories. (A) Toggle switch network. Red arrows representing auto-activation indicate time-dependence of threshold parameters a X y a y (see equation 1). (B) Values of auto-activation thresholds a X y a y are altered simultaneously and linearly over time. The graph shows the step-wise approximation of a continuous change, in this case, an increase in parameter values. Step size is taken as small as computational efficiency allows. (C) During every time step, parameters can be considered constant, and the phase portrait and (quasi-)potential landscape are calculated for the current set of parameter values. Trajectories are then integrated over the duration of the time step using the previous end point as the current initial condition. The result is mapped onto the potential surface. The four panels in (C) show examples of potential landscapes (upper panels) calculated based on sets of parameter values at time points indicated by dashed arrows from (B). Important events altering the geometry of the trajectory are indicated. Lower panels show the corresponding instantaneous phase portraits with the integrated progression of the trajectory across time steps. See Model and methods for details.

The smaller the time increments considered, the better we are able to approximate continuous changes in parameter values, and the consequent changes to the associated phase portrait and quasi-potential landscape. Such accurate approximation allows us to faithfully reproduce non-autonomous trajectories produced by models with continuously time-variable parameters. This is done by integrating trajectories using constant parameters during each time step, and then using the resulting end position in phase space as the initial condition for the next time step. The resulting integrated trajectories can then be visualised by mapping them from the underlying phase plane onto the associated quasi-potential landscape as described above. This allows us to track and analyse in detail how changes in the phase portrait and quasi-potential landscape shape the trajectories as the values of the parameters are changing.


Tuesday, December 29, 2020

Evolution and Evolutionary Algorithms: Selection, Mutation, and Drift

A guide to the Trespressures that shape innovation in living and non-living systems.

(a version of this article has also been posted to Medium)

I teach a course on Bio-Inspired AI and Optimization that is meant to be a graduate-level survey of nature-inspired algorithms that also provides a more serious background in the natural-science (primarily biological) fundamentals underlying the inspiration. The first half of the course covers nature-inspired optimization metaheuristics, with a heavy focus on evolutionary algorithms. An evolutionary algorithm is a scheme for automating the process of goal-directed discovery to allow computers to find innovative solutions to complex problems. There is a wide range of evolutionary algorithms, but a common feature of each is that the computer generates a population of random candidate solutions, evaluates the performance of each of these candidates, and then uses the best of these candidates as “parents” to guide the generation of new candidates in the next generation.

Most of my students come from computer science or engineering backgrounds and, as such, have very little formal education in biology let alone something as specific as population genetics (“popgen”). However, to really understand the complex process of evolutionary innovation inherent to evolutionary algorithms (and evolutionary computing in general), it requires at least some fundamental background in popgen. I think when most people reflect back on their high-school biology courses, they might remember something about natural selection and mutation being important in thinking about the evolution of adaptations in natural populations. Sin embargo, there is a third evolutionary force that is extremely important — especially when considering small populations, like the ones that are artificially generated in an evolutionary algorithm. That force is (genetic) drift. So let’s review all three:

    Seleccion natural reflects that some individuals in a population will be at a fundamental disadvantage with respect to other individuals. Those individuals (who are, in the computational creativity context, are relatively poor solutions to a problem) will be very likely to be “selected out” in large populations because there will be so many other individuals who are relatively “fitter.” “Aptitud física” is a measure of how many offspring an individual can put into the next generation given the current context. If some individuals can put more individuals into the next generation than others, they are “more fit.” If all individuals have the same fitness, then every parent has the same chance of getting her offspring into the next generation. If some individuals have less fitness than others, then they have less chance of getting their offspring into the next generation.

Some people are taught that natural selection only matters when resources are scarce and thus population sizes are limited (thus making individuals compete for opportunities). This is not the whole story and is why we must discuss (genetic) drift debajo. Before getting into that, note that even in populations that are not limited, differences in the tarifas of growth of different strategies will gradually change the relative share a strategy has of a population. So even without resource limitation, differences in “relative fitness” will naturally select for the most fit individuals to have the strongest share of the population.

Afortunadamente, mutación (mentioned above) can rescue us from drift. Mutation introduces new variation in a population, and natural selection can choose strategies out of that new variation. So if we want to combat drift, we can just crank up the mutation rate. The downside of that is that the mutation rate also quickly corrupts well-performing strategies. So populations that have a high mutation rate will tend to have a diverse set of strategies within them and maintain a diverse set of fitnesses. Some individuals will have very high fitness, but they will co-exist with individuals with very low fitness (due to mutation) that are just a side effect of the stabilizing force of mutation. Reducing the mutation rate helps to ensure all solutions have similar fitness, but there is never any way to know if a population of individuals with similar fitness is because their shared strategy is good or they simply reached fixation too soon.

So when building an evolutionary algorithm, it is important to start with a diverse population and then build mutation and selection operations that maintain diversity as long as possible (staving off genetic drift). So long as the population is diverse, natural selection will continue to explore large regions of the strategy space. However, if mutation is too strong, then it will limit exploitation and tuning of strategies because adaptations that make small changes in fitness will quickly be lost to mutation. Consequently, if you have the computational budget, it is best to build very large population sizes with very low mutation rates and choose selection operators that moderar selection pressure — giving low-fitness strategies a chance to stay in the large population pool.

Similarly, when thinking about evolution in natural systems, it is important to remember how large the ancestral populations were. Those that evolved in large-population contexts may tend to show more signs of natural selection (and will likely have evolved mechanisms to reduce the mutation rate). Those that evolved in small-population contexts may tend to have high mutation rates and show diversity patterns more closely related to randomness. This latter case relates to neutral theories of evolution, which are important to consider when trying to understand the source of observed variation in systems we see today.

This story is summarized in the graphic I’ve prepared above, which shows mutation and natural selection as forces re-shaping populations within a drift field that, in the absence of those forces, will eventually homogenize the population on an arbitrary strategy.

So how do we come up with interesting new ideas for mutation and selection operators for evolutionary algorithms? We should continue to look at population genetics. In fact, some theories in population genetics (like Sewall Wright’s shifting-balance theory) are much better descriptors of evolutionary algorithm behavior than the more complex evolutionary trajectories of living systems. For example, distributed genetic algorithms, which create islands of evolutionary algorithms that only exchange population members across island boundaries infrequently, tend to out-perform conventional genetic algorithms on the same computational budgets for reasons that make sense in light of population genetics. This is a more advanced topic, and you’re welcome to read/listen more about this in my CSE/IEE 598 lectures. For now, I hope you look at living and non-living populations around you through the lenses of mutation, drift, and natural selection.


Vertebrate Genomes Project Publishes Lessons Learned From 16 Reference Genome Assemblies

In April of this year the Vertebrate Genomes Project (VGP) announced their flagship study including high-quality, near error-free, and near complete reference genome assemblies for 16 species representing six major lineages of vertebrates, including mammals, reptiles, monotremes, amphibians and fish. The lessons learned from these first 16 genome assemblies will help guide the project in their goal of producing reference genomes for the approximately 70,000 living vertebrates. The availability of this genomic data would have wide applications from basic research to conservation.

Harris Lewin, distinguished professor of evolution and ecology in the UC Davis College of Biological Sciences, who serves on the VGP’s leadership council, and postdoctoral researcher Joana Damas are among the coauthors on the Nature paper.

Taking advantage of dramatic improvements in sequencing technology, the study details numerous technological improvements based on these 16 genome assemblies including novel algorithms that put the pieces of the genome puzzle together.

“Completing the first vertebrate reference genome, human, took over 10 years and $3 billion dollars. Thanks to continued research and investment in DNA sequencing technology over the past 20 years, we can now repeat this amazing feat multiple times per day for just a few thousand dollars per genome,” said Adam Phillippy, chair of the VGP genome assembly and informatics working group of over 100 members and head of the Genome Informatics Section of the National Human Genome Research Institute at the NIH in Bethesda, Md.

Comparing bat genomes

The excellent quality of these genome assemblies enables unprecedented novel discoveries which have implications for characterizing biodiversity for all life, conservation, and human health and disease.

Lewin and Damas contributed a comparison of six bat species’ genomes, with Canada lynx, platypus and chicken genomes as outgroups and the human genome as a reference. They were able to define conserved blocks of DNA and evolutionary breakpoints, showing that the rate of evolution accelerated in bats after the last mass extinction 66 million years ago.

“The completeness of these genomes allowed us to look very thoroughly at the breakpoint regions, which flank chromosomal rearrangements,” Damas said.

By doing that, they also found some chromosomal rearrangements associated with gene loss in bats, including one associated with loss of genes related to the immune system.

“We found bat species to have lost from two to the twelve genes present in this locus in humans,” Damas said.

These gene losses could be related to bat-specific differences in immunity to infectious agents including SARS-CoV-2, the virus that causes COVID-19, Lewin said.

Data from the project could also play a role in protecting rare and endangered species. In collaboration with officials in Mexico, genomic analysis of the vaquita, a small porpoise and the most endangered marine mammal, suggest that harmful mutations are purged from these small populations in the wild, giving hope for the species’ survival.

Thousands of species, hundreds of scientists

The VGP involves hundreds of international scientists working together from more than 50 institutions in 12 different countries. As the first large-scale eukaryotic genomes project to produce reference genome assemblies meeting a specific minimum quality standard, the VGP has thus become a working model for other large consortia, including the Bat 1K, Pan Human Genome Project, Earth BioGenome Project, Darwin Tree of Life, and European Reference Genome Atlas, among others. The Earth BioGenome Project is chaired by Lewin, and the secretariat of the project is located on the UC Davis campus.

As a next step, the VGP will work to complete phase one of the project, approximately one representative species from each of 260 vertebrate orders separated by a minimum of 50 million years from a common ancestor.

Phase two will focus on representative species from each vertebrate family and is currently in the progress of sample identification and fundraising.

The project also collaborated with DNAnexus and Amazon to generate a publicly available VGP assembly pipeline and host the genomic data in the Genome Ark database. The genomes, annotations and alignments are also available in international public genome browsing and analyses databases. All data are open source and publicly available under the G10K data use policies.


Arvanitaki, A. (1939). Recherches sur la réponse oscillatoire locale de l'axone géant de Sepia. Archive International Physiology 49: 209–256.

Atwater, I., C.M. Dawson, G. Eddlestone and E. Rojas (1980). The nature of the oscillatory behavior in electrical activity from pancreatic β-cell. Journal of Hormonal Metabolic Research 10 (suppl.): 100–107.

Decroly, O. and A. Goldbeter (1987). From simple to complex oscillatory behaviour Analysys of bursting in a multiply regulated system Journal of Theoretical Biology 124: 219–250.

Faure, P. and H. Korn (2001). Is there chaos in the brain? I. Concepts of nonlinear dynamics and methods of investigation. Comptes Rendus Biologie 324: 773–793.

Goldbeter, A. (1990). Rythmes et Chaos dans les systèmes biochimiques et cellulaires, Masson, Paris.

Hindmarsh, J.L. and R.M. Rose (1984). A model of neuronal bursting using three coupled first order differential equations. Nature 196: 162–164.

Keener, J. and J. Sneyd (1998). Mathematical Physiology. Springer Verlag, New York.

Kuznetsov, A. Yu., O. De Feo and S. Rinaldi (2001). Belyakov homoclinic bifurcations in a tritrophic food chain model. SIAM Journal of Applied Mathematics 62(2): 462–487.

Martiel, J.L. and A. Goldbeter (1987). Origin of bursting and birhythmicity in a model for cyclic AMP oscillations in Dictyostellium cells. Lecture Notes in Biomathematics 71: 244–255.

Muratori, S. and S. Rinaldi (1992). Low and high-frequency oscillations in three dimensional food chain systems. SIAM Journal of Applied Mathematics 52: 1688–1706.

Murray, J. (2002). Mathematical Biology. Springer Verlag, New-York.

Rinzel, J. (1987). A formal classification of bursting mechanisms in excitable systems, in Mathematical Topics in Population Biology, Morphogenesis and Neurosciences, Lecture Notes in Biomathematics, vol. 71: Ed. Teramoto, E. and M. Yamaguti (Springer Verlag, Berlin).

Rinzel, J. and Y.S. Lee (1987). Dissection of a model for neuronal parabolic bursting. Journal of Mathematical Biology, 25: 653–675.

Strogatz, S. (1994). Nonlinear dynamics and chaos: With applications to physics, biology, chemistry and engineering. Reading, MA: Perseus Books.

Terman, D. (1991). Chaotic spikes arising from a model for bursting in excitable membranes, SIAM Journal of Applied Mathematics 51: 1418–1450.

Thom, R. (1988). Esquisse d'une Sémiophysique, InterEditions, Paris.

Wang, X.-J. (1993). Genesis of bursting oscillations in the Hindmarsh–Rose model and homoclinicity to a chaotic saddle. Physica D 62: 263–274.


Notas

Translated by Henri Atlan, see: Atlan [1], p. 508.

A criticism already outlined by Thom and Chumbley in “Stop Chance! Silence Noise!” [20] against the work of Monod [21], Prigogine and Stengers [22], Atlan [23], and Serres [24].

Entropy and noise are equated in Wiener [25]. Wiener established the connection between Shannon’s concept of entropy as a measure of uncertainty in communication with Schrödinger’s concept of negative entropy as a source of order in living organisms. Shannon’s theory looked at the accurate transmission of messages. In this context, the information transmitted is equivalent to the entropy of the information source: the higher the initial uncertainty (entropy), the higher the amount of information achieved in the end. For Shannon, higher entropy indicated more information for Schrödinger, on the other hand, higher entropy indicated less order. Wiener brought into line these approaches. He redefined the notion of entropy, related not to the initial uncertainty (as in Shannon’s definition) but to the degree of uncertainty remaining after the message has been received. Higher entropy (noise) now entailed less information. Thus, while Shannon’s information is equivalent of regular entropy, Wiener’s information is equivalent of negative entropy. Due to this alteration in sign, information (order) now opposes entropy both in information theory and in biological organization. Wiener successfully presented a notion of information (negative entropy) as a general measure of certainty, order and organization in any given “system”, whether living or technical.

Please note that I am not talking of physical invariance/stability.

Such as the two sides of a coin (constraints) enabling to describe (and thus to determine) the toss of a coin.

See as well Châtelet [53], p. 27


Data analysis: A complex and challenging process

Though it may sound straightforward to take 150 years of air temperature data and describe how global climate has changed, the process of analyzing and interpreting those data is actually quite complex. Consider the range of temperatures around the world on any given day in January (see Figure 2): In Johannesburg, South Africa, where it is summer, the air temperature can reach 35° C (95° F), and in Fairbanks, Alaska at that same time of year, it is the middle of winter and air temperatures might be -35° C (-31° F). Now consider that over huge expanses of the ocean, where no consistent measurements are available. One could simply take an average of all of the available measurements for a single day to get a global air temperature average for that day, but that number would not take into account the natural variability within and uneven distribution of those measurements.

Figure 2: Satellite image composite of average air temperatures (in degrees Celsius) across the globe on January 2, 2008 (http://www.ssec.wisc.edu/data/). image © University of Wisconsin-Madison Space Science and Engineering Center

Defining a single global average temperature requires scientists to make several decisions about how to process all of those data into a meaningful set of numbers. In 1986, climatologists Phil Jones, Tom Wigley, and Peter Wright published one of the first attempts to assess changes in global mean surface air temperature from 1861 to 1984 (Jones, Wigley, & Wright, 1986). The majority of their paper – three out of five pages – describes the processing techniques they used to correct for the problems and inconsistencies in the historical data that would not be related to climate. For example, the authors note:

Early SSTs [sea surface temperatures] were measured using water collected in uninsulated, canvas buckets, while more recent data come either from insulated bucket or cooling water intake measurements, with the latter considered to be 0.3-0.7° C warmer than uninsulated bucket measurements.

0.5° C to early canvas bucket measurements, but it becomes more complicated than that because, the authors continue, the majority of SST data do not include a description of what kind of bucket or system was used.

Similar problems were encountered with marine air temperature data. Historical air temperature measurements over the ocean were taken aboard ships, but the type and size of ship could affect the measurement because size "determines the height at which observations were taken." Air temperature can change rapidly with height above the ocean. The authors therefore applied a correction for ship size in their data. Once Jones, Wigley, and Wright had made several of these kinds of corrections, they analyzed their data using a spatial averaging technique that placed measurements within grid cells on the Earth's surface in order to account for the fact that there were many more measurements taken on land than over the oceans.

Developing this grid required many decisions based on their experience and judgment, such as how large each grid cell needed to be and how to distribute the cells over the Earth. They then calculated the mean temperature within each grid cell, and combined all of these means to calculate a global average air temperature for each year. Statistical techniques such as averaging are commonly used in the research process and can help identify trends and relationships within and between datasets (see our Statistics in Science module). Once these spatially averaged global mean temperatures were calculated, the authors compared the means over time from 1861 to 1984.

A common method for analyzing data that occur in a series, such as temperature measurements over time, is to look at anomalies, or differences from a pre-defined reference value. In this case, the authors compared their temperature values to the mean of the years 1970-1979 (see Figure 3). This reference mean is subtracted from each annual mean to produce the jagged lines in Figure 3, which display positive or negative anomalies (values greater or less than zero). Though this may seem to be a circular or complex way to display these data, it is useful because the goal is to show cambio in mean temperatures rather than absolute values.

Figure 3: The black line shows global temperature anomalies, or differences between averaged yearly temperature measurements and the reference value for the entire globe. The smooth, red line is a filtered 10-year average. (Based on Figure 5 in Jones et al., 1986).

Putting data into a visual format can facilitate additional analysis (see our Using Graphs and Visual Data module). Figure 3 shows a lot of variability in the data: There are a number of spikes and dips in global temperature throughout the period examined. It can be challenging to see trends in data that have so much variability our eyes are drawn to the extreme values in the jagged lines like the large spike in temperature around 1876 or the significant dip around 1918. However, these extremes do not necessarily reflect long-term trends in the data.

In order to more clearly see long-term patterns and trends, Jones and his co-authors used another processing technique and applied a filter to the data by calculating a 10-year running average to smooth the data. The smooth lines in the graph represent the filtered data. The smooth line follows the data closely, but it does not reach the extreme values.

Data processing and analysis are sometimes misinterpreted as manipulating data to achieve the desired results, but in reality, the goal of these methods is to make the data clearer, not to change it fundamentally. As described above, in addition to reporting data, scientists report the data processing and analysis methods they use when they publish their work (see our Understanding Scientific Journals and Articles module), allowing their peers the opportunity to assess both the raw data and the techniques used to analyze them.


Observaciones finales

Surveys of forensic practitioners regarding aspects of training, proficiency testing, procedures, methods, policies, contamination prevention, data collection and communication relating to forensic trace DNA have highlighted the need for improvements in these areas [135, 136]. A number of recent reports have recommended the need for substantially greater investment into forensic services related research and development [82, 219]. This review identifies how far we have come in the use of trace DNA in order to assist forensic investigations in recent years, but it also identifies several opportunities for improvement in most facets of trace DNA work. A deeper consideration of workflow processes and priorities may yield alternative protocols that allow the use of a greater portion of the available DNA, with greater sensitivity, thus increasing the chance of generating fuller and easier to interpret profiles. Further research will improve the utilisation and benefits of collecting and typing trace DNA in forensic investigations.


Ver el vídeo: Differentialligninger - hvordan løser man en differentialligning? (Agosto 2022).