Información

¿Son las elipses de MacAdam teóricamente predecibles?

¿Son las elipses de MacAdam teóricamente predecibles?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Las elipses de MacAdam se encontraron como un ajuste a los resultados experimentales sobre la coincidencia de colores por observadores humanos. Múltiples espacios de color que intentan hacer que las distancias euclidianas sean más perceptualmente uniformes, como CIELAB y CIELUV, también se basan en estos datos experimentales.

Pero, ¿qué pasa con el lado teórico de la cuestión de la distancia de color? ¿Es la teoría actual de la visión del color capaz de predecir los tamaños y orientaciones de estas elipses? Si no es así, ¿cuáles son los obstáculos?


METAMERISMO EN IMAGEN MULTISPECTRAL DE ESPECÍMENES DE HISTOPATOLOGÍA

Una cámara multiespectral es capaz de obtener imágenes de un portaobjetos histológico en anchos de banda estrechos en el rango del espectro visible. Actualmente no existe un consenso claro sobre las circunstancias en las que estos datos espectrales adicionales pueden mejorar la interpretación asistida por computadora y el diagnóstico de muestras de patología obtenidas mediante imágenes [1, 2, 3]. Dos espectros que se perciben como del mismo color se denominan metameros, y la colección de todos esos espectros se denomina conjunto de metameros. Los colores altamente metaméricos se pueden separar mediante imágenes multiespectrales (MSI).

Utilizando la transformación entre el espectro y su color percibido, nuestro trabajo aborda la cuestión de cuándo MSI revela información no representada por una imagen de color RGB estándar. Se obtiene una estimación analítica del tamaño del conjunto de metameros para el caso de absorción espectral independiente. Se muestra que los colores que están más cerca del punto blanco en el diagrama de cromaticidad son altamente metaméricos. Se proporciona un método numérico para estimar el conjunto de metamer de una manera específica de dominio. El método se demuestra en conjuntos de datos multiespectrales de frotis de sangre periférica con imágenes y microarrays de tejido mamario. Un a priori Se presenta una estimación del grado de metamerismo a partir de una imagen en color estándar.


4 respuestas 4

Suena bien. Para obtener blanco (6500K) usando fósforos NTSC (TV en color), las intensidades relativas son G = 0.59, R = 0.3, B = 0.11 - la mayor parte de la energía está en el verde, menos en el azul. (números redondeados ligeramente diferentes en Wikipedia) Con la misma intensidad, el azul parecería más brillante. Los números reales serán diferentes aquí (LED, no fósforos) pero las intensidades relativas son en realidad más similares de lo que esperaba.

El interesante comentario de Spehro explica de alguna manera por qué. La Candela es una definición de intensidad luminosa ponderada de tal manera que 100 mcd de luz roja, verde o azul se perciben como igualmente brillantes.

Ahora que entiendo el proceso de conversión del espacio de color, ¡no se sigue de eso, que mezclar intensidades percibidas iguales de R, G, B resultará en lo que vemos como blanco!

De hecho, ¿cómo puede hacerlo? Nuestros ojos son más sensibles al verde. Entonces, la intensidad real de la luz verde es reducido en la definición de la Candela para dar el mismo percibido intensidad como rojo, azul (Nitpick: creo que las otras intensidades aumentan en su lugar). Luego, para mezclar los tres y hacer blanco, necesitamos aumentar la intensidad percibida de la luz verde para restaurar la intensidad correcta en la luz mezclada. (Es por eso que la intensidad medida debe ser mayor en la longitud de onda donde nuestros ojos son más sensibles. ¡Eso no tendría sentido de otra manera!)

En otras palabras, 100 mcd de rojo, verde y azul contienen mucha menos energía real en el canal verde, mientras que la luz blanca verdadera contendría aproximadamente la misma energía en cada canal, de ahí la definición de "ruido blanco" en la electrónica.

EDITAR: Un artículo interesante coloca las eficiencias cuánticas de los LED rojos y azules en la región del 70-80%, muy por encima de las de los LED verdes (anteriores a 2008) (¡es un argumento de venta, después de todo!). Esto hace que sea probable que, sea cual sea el motivo de la baja intensidad de los LED azules, no sea que sean difíciles de fabricar.

Entonces, las intensidades relativas de los tres LED en la pregunta son el intento del fabricante de deshacer esta ponderación y hacer coincidir los LED para que la luz generada sea aproximadamente blanca a la corriente nominal.

Ilustración (fuente de la imagen)
Para mis ojos, al menos, en la ilustración de arriba, G es, con mucho, el primario más brillante, con el segundo R y el B más oscuro, pero cuando se mezclan, producen un blanco bastante bueno.

No pretendo que las otras respuestas sean incorrectas, pero se pierden dos puntos importantes. Uno de ellos que considero el más relevante.

Los LED RGB no están diseñados para producir luz blanca. Están destinados a alcanzar una cierta gama de Wikipedia en la gama, es decir, el espacio de color que puede mostrar el LED. Y lo hacen. Si los tres canales se manejan con una resolución de 8 bits, probablemente solo menos del 1% de todas las configuraciones posibles producirán una mezcla ligera en el locus de Planck. Wikipedia sobre el locus planckiano, donde se puede encontrar luz blanca. Así que se puede adivinar que la luz blanca no es el objetivo principal de un LED RGB.

La gama es el resultado del análisis de casos de uso que realiza un fabricante. En la mayoría de los casos, el caso de uso exige un alto rendimiento para los colores de la señal como rojo, verde y amarillo, pero solo una potencia limitada cuando se produce luz blanca.

Incluso si el caso de uso cubre las omnipresentes tiras de LED RGB, no es necesario ni posible golpear el lugar de Planckian cuando se activan todos los LED al 100%. El ojo humano tolera muchas elipses de MacAdam lejos del locus de Planck cuando no tiene una buena fuente de luz para comparar y más aún cuando el dueño del ojo obtuvo los LED a un precio de ganga.

Como escribí en mi comentario, el tamaño de la matriz de los tres colores suele ser igual, lo que conduce a una potencia nominal y térmica casi igual para los tres chips. Esto y el ancho de banda limitado del proceso epitaxial disponible en la actualidad finalmente impide que los fabricantes "complazcan a todos". Por lo tanto, es muy poco probable que se obtenga un dispositivo RGB que llegue al locus Planckiano cuando se maneja al 100%. Además de eso, incluso si hubiera un chip RGB con esa propiedad, no produciría el mismo resultado a una temperatura ambiente solo 20 ° más alta.

Hay un hecho más a considerar si se desea luz blanca al 100% de corriente para todos los LED. Cada LED de color produce un espectro estrecho alrededor de su llamada longitud de onda dominante $ λ_PS Para que puedan imitar un espectro blanco juntos, deben tener jorobas espectrales adyacentes o producir más luz, si su longitud de onda dominante está lejos de los LED adyacentes. Para RGB, el verde está de hecho en un gran espacio entre R y B. Por lo tanto, la potencia de salida debe aumentarse para generar el mismo triestímulo que la luz del día. Esto significa que el LED verde soporta la carga principal al proporcionar el flujo para una luz que parece blanca. El ojo, gracias a sus propiedades metaméricas, es bastante indulgente con la "forma" real del espectro.

La reproducción de color escandalosamente abismal del blanco generado por RGB es otra historia.


Materiales y métodos

Medición de los espectros de reflectancia de los estímulos.

Los espectros de reflectancia de 24 estímulos de diferentes colores (Tabla 1) se midieron usando un espectrofotómetro Varian DMS100 equipado con un accesorio de reflectancia difusa. El rango espectral examinado incluyó 300-700 nm, para permitir un análisis de cómo un sistema visual, incluido el pico de la banda β, podría ver los estímulos. El espectrofotómetro se calibró frente a un patrón de polvo de politetrafluoroetileno prensado Varian. Los 24 estímulos incluyen 12 muestras artificiales y 12 naturales, y representan una gama de colores para la visión humana normal. Estos incluían frutas, cartulina de colores (Optix Australia), papel blanco (Reflex Australia), material de tela de colores y un trozo de madera aserrada de fresno de montaña (todos comprados en tiendas locales). Además, se recolectaron muestras de hojas y cortezas de los jardines de la Universidad de Monash. Para medir los espectros de reflectancia de las muestras de frutos, hojas y corteza, se utilizó una sección cortada de 3 cm x 2 cm. Las mediciones se realizaron de inmediato y no se produjo ninguna decoloración visible de la fruta en este tiempo (Figura 2).

Fuentes de iluminación

A partir de los datos de Judd et al. (Judd et al., 1964) se utilizaron dos fuentes de radiación para representar distribuciones espectralmente diferentes de la luz del día. Estos incluyeron luz diurna directa (una mezcla de luz solar directa y claraboya difusa) con una temperatura de color correlacionada (CCT) = 6500K, y sombra (solo claraboya difusa) con CCT = 10000K (Fig.3). Las dos fuentes de radiación representan el problema para el animal de identificar objetos iluminados alternativamente por la luz del sol y la sombra, ya que encontrar alimento podría ser en un ambiente de búsqueda de alimento natural (Dyer, 1998).

Observador estándar CIE 1931

Para modelar la constancia del color de von Kries para la visión normal del color humano, X (λ) (rojo), (λ) (verde) y Se utilizaron funciones de concordancia de color (λ) (azul) para un observador estándar según lo especificado por la Commission Internationale de l’Eclairage (CIE) 1931 (véase Wyszecki y Stiles, 1967 para más detalles). Estas funciones de coincidencia de colores son un estándar acordado internacionalmente para especificar cuantitativamente el color para un observador humano promedio o típico (Wyszecki y Stiles, 1967 MacAdam, 1985). Para estimar la eficiencia de la constancia de color de von Kries para un observador estándar CIE 1931, es posible usar las elipses de MacAdam (MacAdam, 1942 MacAdam, 1985) para calcular una distancia apenas perceptible en el espacio de color. Las elipses de MacAdam son un conjunto de elipses determinado experimentalmente para diferentes regiones del espacio de color CIE 1931 que permiten el cálculo de una diferencia perceptible en el color de los estímulos para un observador estándar CIE 1931 (Wyszecki y Stiles, 1967 MacAdam, 1985).

Por un estímulo dado I(λ) visto bajo una iluminación D(λ), los valores triestímulos (X, Y y Z) están dados por.

para i = 1-3, donde λ es la longitud de onda, I(λ) =X(λ), (λ) y (λ), respectivamente, y TI=X, Y y Z, respectivamente. La variable K es el coeficiente de von Kries (ver ecuación 2), y se supone que el sistema visual está adaptado a un estímulo que refleja la radiación por igual en todas las longitudes de onda. Como el objetivo del cálculo es determinar el cambio de color de un estímulo dado en una iluminación espectralmente diferente, se considera que el brillo absoluto del estímulo permanece constante y el único cambio es en la señal espectral relativa. Como no existen datos de coincidencia de color para las longitudes de onda ultravioleta (ya que normalmente no vemos estas longitudes de onda), la integración se calculó en el rango de 400 a 700 nm.

Las coordenadas de cromaticidad se trazaron en el espacio de color CIE 1931 (ver Figura 4) y se usaron coeficientes métricos constantes para las elipses de MacAdam para calcular el cambio perceptible en el color de un estímulo. I(λ) considerando la iluminación espectralmente variable y la constancia del color de von Kries (Wyszecki y Stiles, 1967 MacAdam, 1985). Usando la ecuación 4, una distancia calculada de 2.0 unidades es equivalente a una distancia apenas perceptible, o el paso de color perceptible más pequeño para un observador estándar (Wyszecki y Stiles, 1967 MacAdam, 1985), y la Tabla 1 muestra el cambio de color predicho en tan solo- distancias notables. La elección de una distancia apenas perceptible como criterio para designar la constancia aproximada del color (es decir, el color percibido de un estímulo no es exactamente el mismo) es probablemente muy estricta. La constancia del color en el sentido biológico se ocupa de identificar correctamente un estímulo por sus propiedades de reflectancia independientemente del color de la iluminación (es decir, qué tan similar es el color del estímulo cuando cambia el color de la iluminación), mientras que la formulación de las elipses de MacAdam se basa en la percepción de pequeñas diferencias de color ( es decir, ¿se pueden percibir dos estímulos como diferentes? Sin embargo, es útil tener un punto de referencia para cuantificar el cambio en la apariencia de un estímulo en la iluminación espectralmente variable y la diferencia de color ΔC es más tangible que la similitud de color:

donde ΔX y Δy son las diferencias en las coordenadas del estímulo en el espacio de color para condiciones de iluminación espectralmente diferentes (asumiendo la constancia de color de von Kries). Los coeficientes métricos constantes gramo11, gramo12 y gramo22 se basan en las elipses de MacAdam y se dan en otros lugares (Wyszecki y Stiles, 1967 MacAdam, 1985).

Sistemas visuales hipotéticos

Se utilizaron tres HVS en el estudio para permitir una evaluación comparativa de cómo los sistemas visuales con diferentes características podrían funcionar en iluminación espectralmente variable. La sensibilidad espectral relativa de diferentes clases de fotorreceptores para cada HVS se calculó utilizando la vitamina A1 plantilla (Stavenga et al., 1993). La región del espectro considerada para estos sistemas visuales comprendía entre 300 y 700 nm.

Para HVS1, los picos de los receptores SWS, MWS y LWS se tomaron como 420, 534 y 564 nm, respectivamente, sobre la base de los datos de los conos en la visión del color humana (Bowmaker y Dartnall, 1980). Estos picos de receptores son muy similares a los reportados en varias especies diferentes de primates del Viejo Mundo (Bowmaker, 1991). Se supuso que la radiación con una longitud de onda inferior a 400 nm era totalmente absorbida por los filtros oculares (figura 5A). Este HVS representa aproximadamente la visión humana del color.

Los picos del receptor de la banda α de HVS2 son idénticos a los de HVS1; sin embargo, se asume que no hay filtración de radiación por los filtros oculares, y la radiación ultravioleta es absorbida por un pico de banda β común con máxima sensibilidad a 340 nm (Stavenga et al., 1993 ) (Figura 5B). Existe alguna evidencia de que la posición espectral del pico de la banda β puede variar con la posición espectral del receptor de la banda α (Palacios et al., 1998) sin embargo, aquí se usa una posición invariable para simplificar el modelo y debido a la escasez de otros datos. Los cambios menores del pico de la banda β hacia longitudes de onda más largas no deberían cambiar mucho la amplitud espectral y la superposición de las tres clases de receptores, ni las predicciones generales del modelo.

Para HVS3, los receptores SWS y LWS son idénticos a HVS1, pero se supone que el receptor MWS absorbe la radiación al máximo a 492 nm. Se supone que toda la radiación en longitudes de onda inferiores a 400 nm es absorbida por filtros oculares. Este sistema visual representa receptores aproximadamente simétricamente espaciados sin un pico de banda β (figura 5C). La ubicación del receptor MWS a 492 nm parece plausible debido a los hallazgos (Sun et al., 1997) que sugieren que los mamíferos pueden tener los mecanismos de ajuste genético para tener pigmentos de cono "verde" con máximos de absorción tan cortos como 487 nm.

Distancia de color para HVS

Para los tres HVS, la cantidad de radiación absorbida por cada receptor PAG (SWS, MWS y LWS) se calculó mediante las ecuaciones 5 y 6. Coordenadas de cromaticidad (sws, mws y lws) se calcularon utilizando la ecuación 7, y posteriormente se trazaron en coordenadas cartesianas para representar el espacio de color para cada HVS (ver Fig.6A-C). Se calculó una distancia de color euclidiana utilizando el teorema de Pitágoras (ecuación 8) (Wyszecki y Stiles, 1967).

Por un estímulo dado I(λ) visto bajo una iluminación D(λ) por tipo de receptor S(λ), la cantidad relativa de radiación absorbida por cada receptor viene dada por:


Importancia de la matriz G y su estabilidad

los GRAMO-matrix juega un papel crucial en la teoría formal para la evolución de rasgos poligénicos, incluida la respuesta evolutiva de la población a la AL. los GRAMO-matriz afecta profundamente la respuesta de la media fenotípica a la selección (Lande 1979). GRAMO también se puede utilizar para reconstruir patrones históricos de selección y para probar la deriva genética como un modelo nulo de diferenciación (Lande 1979 Jones et al. 2004 Hohenlohe y Arnold 2008). En los tres contextos, la estabilidad del GRAMO-matriz es un problema importante pero no resuelto. Porque el GRAMO-matriz está destinada a fluctuar en una población de tamaño finito (Lande 1979), la cuestión de la estabilidad no tiene una respuesta simple de sí o no. En cambio, debemos considerar un conjunto de cuestiones más sutiles. ¿Qué tipos de caracteres cuantitativos tienen relativamente estables GRAMO-matrices y en que escala de tiempo? Son algunos aspectos de GRAMO-¿Estructura de matriz más estable que otras? ¿Cuánto se ven afectadas las inferencias evolutivas por cambios sistemáticos y aleatorios en el GRAMO-¿matriz? Aunque la importancia de estos problemas es evidente y ampliamente reconocida, hasta ahora no hemos podido resolverlos con la maquinaria analítica del álgebra y el cálculo.


Introducción

Se encuentran variaciones no aleatorias en función del tiempo a nivel celular, en cultivos de tejidos, así como en organismos multicelulares en diferentes niveles de organización fisiológica [1]. Los ritmos multifrecuencia generalmente explican una porción considerable de la variabilidad [2]. Si bien actualmente hay mucho interés en estudiar los ritmos circadianos, la estructura del tiempo biológico cubre muchos rangos diferentes de períodos más allá del día de 24 horas, desde fracciones de segundos en neuronas individuales hasta segundos en los ciclos cardíaco y respiratorio, y algunas horas en ciertos ciclos. funciones endocrinas. Los ciclos con períodos de aproximadamente una semana, aproximadamente un mes y aproximadamente un año también son ubicuos, al igual que algunos otros ciclos recientemente descubiertos con períodos de aproximadamente 5 y 16 meses, y períodos mucho más largos [3].

La naturaleza parcialmente incorporada de los ritmos circadianos [4, 5] es ahora ampliamente aceptada, al igual que el hecho de que pueden sincronizarse mediante ciclos en el entorno (por ejemplo, horarios de iluminación y alimentación) [6]. De manera más general, los ciclos geofísicos ambientales, como el ciclo de luz diurna, las mareas, las fases de la luna, las estaciones, así como una serie de otros ciclos compartidos entre los organismos vivos y el entorno en el que evolucionaron, sirven como sincronizadores. para ritmos parcialmente endógenos [7, 8].

La aplicación de la cronobiología y sus conceptos a la biología y la medicina depende de la evaluación cuantitativa de los datos recopilados en función del tiempo. La inclusión del tiempo como factor primordial en las investigaciones cronobiológicas amplía el alcance de los métodos de análisis de datos. Los métodos presentados en este documento sirven para la detección del ritmo y la estimación de parámetros, con aplicaciones en el diagnóstico temprano de las características del ritmo alterado que indican un mayor riesgo, la optimización del tratamiento por tiempo y una comprensión más amplia de cómo nuestra fisiología se ve influenciada por nuestro entorno. .

Recopilación de datos y diseño de estudios

Antes de pasar a la metodología en sí, es importante considerar aspectos de la recopilación de datos y el diseño del estudio [9] relacionados con la elección de las herramientas analíticas utilizadas para el análisis de datos. Datos biológicos (YI, i = 1, 2,…, N) se obtienen típicamente haciendo que un reloj active el sistema (instrumento, sensor) para medir una variable biológica, produciendo un conjunto de datos en tiempos de muestreo discretos (tI, i = 1, 2,…, N). Si la variable examinada es discreta (p. Ej., Recuentos mitóticos) o continua (p. Ej., Temperatura oral), los valores numéricos atribuidos a YI están limitados en exactitud y precisión por la instrumentación utilizada. Cualquier variación finita de un sistema biológico tiene lugar durante un intervalo de tiempo distinto de cero en lugar de instantáneamente. En términos de análisis de datos, esto significa que hay una frecuencia de corte fS más allá del cual el espectro de las variaciones biológicas es prácticamente nulo [10]. Ya sea que el transductor utilizado para medir una variable biológica determinada sea analógico o digital, le toma un cierto tiempo responder y entregar una lectura, de modo que los ritmos con períodos más cortos que este tiempo de respuesta no se pueden evaluar y los ritmos con un período cercano a estará distorsionado [10]. En otras palabras, una frecuencia de corte fT puede definirse como la frecuencia mínima tal que para f & gt fT la señal de salida permanece prácticamente constante (no se puede evaluar ninguna variación en los datos). Esto significa que las mediciones demasiado densas son redundantes y no aportan información adicional. En el caso de datos equidistantes obtenidos a intervalos Δt, se ha recomendado elegir Δt ≤ 1 / 4fT para asegurar una buena aproximación de Y (t) [11].

Para aplicaciones cronobiológicas, este requisito de muestreo (para poder reconstruir cambios en función del tiempo en el contexto de la teoría del procesamiento de señales) es a menudo difícil de cumplir. En cambio, el muestreo se usa en su significado estadístico, donde se refiere a la selección de algunos elementos de una población para sacar inferencias para esa población. En términos de una serie de datos, la selección de un intervalo de muestreo Δt & gt 1 / fT permite evaluar solo algunas características de las variaciones biológicas. En ausencia de información externa, para los datos recopilados en un intervalo de observación T, solo se pueden evaluar las oscilaciones con períodos en el intervalo de T hasta 2Δt. La resolución con la que se puede determinar el período de una señal también depende de T: en términos de frecuencia, la diferencia más pequeña de frecuencia entre dos señales distintas es 1 / T. La frecuencia más alta (que ya no se puede evaluar), 1 / 2Δt, se llama frecuencia de Nyquist, fnorte. Dentro del campo de la teoría de la información, esto se conoce como el teorema de Nyquist-Shannon, que establece que si una función Y (t) no contiene frecuencias superiores a fnorte, se determina completamente muestreando Y (t) a intervalos de 1 / 2fnorte.

Ostle [12] define el diseño de un experimento como la secuencia completa de pasos tomados con anticipación para asegurar que los datos apropiados se obtengan de una manera que permita un análisis objetivo que conduzca a inferencias válidas con respecto al problema planteado. Estos pasos incluyen la declaración de objetivos, la formulación de hipótesis y la elección del diseño y procedimiento experimental y de los métodos estadísticos que se utilizarán. Los principios que subyacen a los diseños experimentales se basan en la replicación, la aleatorización y el control. La replicación se relaciona con mediciones repetidas para obtener una estimación de la incertidumbre (error experimental o ruido) que se utiliza para derivar la significancia estadística (valores P) y los intervalos de confianza. El ruido se origina por variaciones en el sistema biológico que no se consideran parte de la porción determinista de la señal, por errores externos al sistema (errores de experimentación, de observación y / o de medición), y del transductor y muestreador (instrumentación error). Reducir el error experimental aumenta la precisión de los experimentos. La aleatorización es un aspecto importante del diseño del estudio que permite a los investigadores proceder como si el supuesto de independencia de los errores de observación fuera cierto, lo cual es fundamental para aplicar una prueba de significancia. Aunque la aleatorización no puede garantizar la independencia, reduce la correlación que tiende a caracterizar los errores asociados con el material experimental (unidad experimental o datos) adyacentes en el espacio o el tiempo, al tiempo que mejora la precisión. El control se refiere a la cantidad de equilibrado, bloqueo y agrupación de las unidades experimentales [12].

El número de repeticiones necesarias para una determinada probabilidad de detectar una determinada diferencia con significación estadística depende del error estándar por unidad experimental [13]. Esto significa que los tamaños de muestra pequeños pueden detectar fácilmente grandes diferencias, mientras que las pequeñas diferencias requieren tamaños de muestra más grandes. Cuando se trata de variables rítmicas, una parte considerable de la variación proviene de la variación rítmica. Por lo tanto, evaluar el comportamiento rítmico es importante para reducir el término de error. Una característica importante de los diseños de estudios cronobiológicos es que la etapa del ritmo es a menudo el factor principal, como cuando se evalúa la eficacia relativa o la toxicidad de un tratamiento dado administrado en diferentes etapas del ritmo circadiano. El poder de probar un efecto de tiempo generalmente se ve afectado solo ligeramente por el número de puntos de tiempo considerados cuando los resultados se analizan por cosinor, pero no cuando se realiza un análisis de varianza. Esta diferencia en el enfoque explica en parte la controversia entre los diseños clásicos que abogan por menos grupos de prueba [14] y los diseños cronobiológicos que recomiendan al menos 6 puntos de tiempo por ciclo [15-17].

En el marco de los diseños de estudios cronobiológicos, se pueden distinguir tres tipos de datos, que determinan la elección del método para su análisis y cómo se pueden interpretar los resultados. El muestreo longitudinal corresponde a la obtención de datos sobre un mismo individuo (unidad experimental) en función del tiempo. Un ejemplo es el control de la presión arterial las 24 horas del día a intervalos de aproximadamente 30 minutos durante 7 días. Los resultados se aplican a este individuo en particular. El muestreo transversal (transversal) consiste en obtener un solo valor por individuo (unidad experimental), diferentes individuos proporcionando datos en el mismo o en diferentes momentos de muestreo. Las series de tiempo de tiempos de supervivencia son un ejemplo de datos transversales. Cuando los individuos representan una muestra aleatoria de una población determinada, los resultados se pueden generalizar para esa población. El muestreo híbrido (transversal vinculado) consiste en tomar algunas medidas en serie de varios individuos (unidades experimentales). Por ejemplo, la prolactina circulante se determina a intervalos de 20 minutos durante 24 horas en mujeres con riesgo familiar bajo o alto de desarrollar cáncer de mama más adelante en la vida. El ritmo circadiano puede determinarse para cada mujer y resumirse en todas las mujeres de cada grupo para evaluar cualquier diferencia en función del riesgo de cáncer de mama [18]. Cuando los individuos representan una muestra aleatoria de sus respectivas poblaciones, los resultados se pueden generalizar a estas poblaciones.

En general, pero especialmente cuando el muestreo se realiza en más de un individuo, es importante que estén sincronizados. Los sincronizadores (periodicidades ambientales que determinan la ubicación temporal de los ritmos biológicos) sirven para este propósito. El programa de actividad de descanso o el régimen de luz-oscuridad son sincronizadores efectivos y se pueden usar para determinar un tiempo de referencia (como el momento del despertar o el inicio de la luz en lugar de las horas del reloj, como la medianoche local). Se han utilizado regímenes de iluminación escalonada para facilitar la recopilación de datos en el laboratorio experimental [19], lo que permite recopilar datos durante varios días [20]. Los ritmos de marcador [21] son ​​una verificación útil de si se ha logrado la sincronización, proporcionando además una referencia interna. La actividad, la temperatura, la frecuencia cardíaca y la presión arterial son algunas variables de marcador útiles que se pueden controlar fácilmente de forma longitudinal. Por ejemplo, la presión arterial se ha utilizado para orientar el momento de la administración de la medicación antihipertensiva al tiempo que proporciona información sobre la respuesta del paciente al tratamiento [22].

Resumen estadístico

Antes de continuar con cualquier análisis de datos, se recomienda trazar primero los datos en función del tiempo. Este cronograma puede ser informativo de varias formas. Puede reconocerse la presencia de una ritmicidad obvia y evaluarse cualitativamente (macroscópicamente) su prominencia relativa en comparación con el ruido. Cuando el muestreo cubre varios ciclos, se puede obtener alguna medida de la variabilidad de un ciclo a otro. Se puede observar la presencia de tendencias crecientes o decrecientes, al igual que la existencia de valores atípicos. Después del ajuste de la curva, un cronograma de residuos también puede proporcionar información valiosa sobre la idoneidad del modelo y la necesidad de transformación de datos.

También debe prepararse un histograma para obtener una estimación del valor medio con su desviación estándar y para verificar el supuesto de normalidad. Por ejemplo, una distribución de cola larga es indicativa de la necesidad de transformación de datos. Alternativamente, puede indicarse el uso de métodos robustos (como los basados ​​en rangos [23]).

Cuando la información previa sugiere la presencia de un ritmo con un período conocido, apilar los datos en un solo ciclo reduce el ruido y revela la forma de onda del ritmo. Históricamente, este enfoque fue utilizado por Franz Halberg para resolver la confusa variabilidad en los recuentos de eosinófilos en sangre [24-26]. También fue fundamental para demostrar que el ritmo circadiano en la temperatura central de las ratas Fischer persistió después de la lesión bilateral de los núcleos supraquiasmáticos, aunque con una amplitud reducida y un avance de fase [27, 28]. Sin embargo, debe tenerse en cuenta que apilar los datos durante un período supuesto puede producir resultados falsos si el período de la señal difiere de su valor supuesto. Por esta razón, se recomienda encarecidamente analizar los datos originales primero antes de proceder con cualquier apilamiento. Por ejemplo, no es raro presentar los datos por mes calendario, incluso cuando los datos se han recopilado durante varios años. Este procedimiento limita la capacidad de resolver cualquier señal periódica con un período diferente de exactamente 1 año o sus términos armónicos (6, 4, 3 meses,…). La acumulación de datos durante un período que ha sido validado puede complementarse con un análisis de prueba de varianza para un efecto de tiempo cuando los datos se agrupan en un número determinado de clases de igual duración que cubren el ciclo completo (por ejemplo, seis clases de 4 horas que cubren 24 horas). horas). Luego, una prueba F sirve para probar la igualdad de las medias de clase. Si bien este procedimiento sigue siendo aplicable para datos no equidistantes, el resultado depende de la elección del número de clases utilizadas para el agrupamiento y de la elección del tiempo de referencia [29].

Cosinor único

Históricamente, el cosinor único se desarrolló para analizar series de datos breves y escasas [2, 30–32]. Los periodogramas y espectros clásicos utilizados originalmente en cronobiología [33, 34] requerían que los datos fueran equidistantes y cubrieran más de un ciclo. Mientras que algunas técnicas de análisis espectral están ahora disponibles para analizar datos no equidistantes [35-37], los algoritmos disponibles en la mayoría de los paquetes de software se limitan al caso de datos equidistantes.

Los procedimientos de mínimos cuadrados no tienen esta limitación. Por lo tanto, son útiles en problemas de ajuste de curvas, donde es deseable obtener una forma funcional que se ajuste mejor a un conjunto de medidas dado. Aunque la regresión periódica presenta sus propias limitaciones, al ser sensible a los valores atípicos y al no tener ninguna restricción para conservar la varianza en los datos, posee dos características importantes: primero, cuando los datos son equidistantes, los resultados en las frecuencias de Fourier son idénticos a los del Fourier discreto. transform [38] y segundo, utiliza ventajosamente información previa. Por lo tanto, después de que se demostró la existencia de ritmos circadianos ubicuos, fue posible aplicar el método de cosinor único en muchos experimentos destinados a determinar los momentos de mayor eficacia y menor toxicidad en respuesta a una variedad de fármacos y otros estímulos ajustando un 24- curva de coseno de una hora a 6 valores, con 4 horas de diferencia, cada valor representa el número de animales experimentales que sobrevivieron a una determinada intervención aplicada en uno de los 6 puntos de tiempo cuando, en general, aproximadamente el 50% de los animales habían muerto. Estos resultados llevaron a los campos de la cronofarmacia y la cronoterapia [39-42].

Cosinor monocomponente

En particular, en los estudios de los ritmos circadianos, es posible suponer que el período es conocido, ya que está sincronizado con el ciclo externo de 24 horas. El modelo de regresión para un solo componente se puede escribir como

donde M es el MESOR (Midline Statistic Of Rhythm, una media ajustada al ritmo), A es la amplitud (una medida de la mitad de la extensión de la variación predecible dentro de un ciclo), ϕ es la acrofase (una medida del tiempo de alta general valores recurrentes en cada ciclo), τ es el período (duración de un ciclo) y e (t) es el término de error (Figura 1).

Definición de características rítmicas. El MESOR es una media ajustada al ritmo.La doble amplitud (2A) es una medida del grado de cambio predecible dentro de un ciclo.La acrofase es una medida del tiempo de los valores altos generales que se repiten en cada ciclo, expresada en grados (negativos) en relación con un tiempo de referencia establecido en 0 °, con 360 ° equivalentes al período y el período es la duración de un ciclo. © Centro de Cronobiología Halberg.

Cuando se puede suponer que τ es conocido, utilizando una identidad de suma de ángulos trigonométrica conocida, el modelo se puede reescribir como

El principio subyacente al método de mínimos cuadrados es la minimización de la suma de cuadrados residual (RSS), que es la suma de las diferencias al cuadrado entre las medidas YI (obtenido en los tiempos tI, i = 1, 2,…, N) y los valores estimados a partir del modelo en los momentos correspondientes

Este enfoque es válido cuando todas las desviaciones estándar individuales son iguales, como suele ser el caso.

Las estimaciones para M, β y γ se obtienen resolviendo las ecuaciones normales, obtenidas al expresar que RSS es mínima cuando sus derivadas de primer orden con respecto a cada parámetro son cero.

Las estimaciones de M, β y γ (o vectorialmente, u) se obtienen así como

Las estimaciones de amplitud y acrofase pueden derivarse de las estimaciones de β y γ mediante las siguientes relaciones

El valor correcto de ϕ ^ se determina teniendo en cuenta los signos de β ^ y γ ^.

Para la detección del ritmo, la suma total de cuadrados (TSS) se divide en la suma de cuadrados debido al modelo de regresión (MSS) y la suma de cuadrados residual (RSS). TSS es la suma de las diferencias al cuadrado entre los datos y la media aritmética. MSS es la suma de las diferencias al cuadrado entre los valores estimados basados ​​en el modelo ajustado y la media aritmética. Como se señaló anteriormente, RSS es la suma de las diferencias al cuadrado entre los datos y los valores estimados del modelo ajustado.

El modelo es estadísticamente significativo cuando la suma de cuadrados del modelo es grande en relación con la suma de cuadrados residual, según lo determinado por la prueba F.

donde 2 y N-3 son los números de grados de libertad atribuidos al modelo (k = 3 parámetros - 1) y al término de error (N - k). La hipótesis nula (H0) que no hay ritmo (la amplitud es cero) se rechaza cuando F & gt F1-α(2, N-3), donde α se relaciona con el nivel de probabilidad elegido para probar H0.

Para la estimación de parámetros, parece razonable considerar el MESOR (M) por separado y (β, γ) juntos. El intervalo de confianza 1-α para M ^ viene dado por

donde s ij - 1 son los elementos de S -1,

y Tpag(f) denota el p-ésimo punto de probabilidad de la t de Student en f grados de libertad. La matriz de covarianza para β ^, γ ^ está dada por

de la cual se puede derivar una región de confianza 1-α para β ^, γ ^, o equivalentemente para A ^, ϕ ^. Se basa en el estadístico F utilizado para la detección del ritmo, que se evalúa en el valor estimado de A ^ en lugar de en A = 0. La ecuación resultante es la de una elipse (Figura 2):

Cosinor simple de un solo componente: prueba de hipótesis y estimación de parámetros. Una curva de coseno con un período dado se ajusta a los datos (arriba) por mínimos cuadrados. Este enfoque consiste en minimizar la suma de las desviaciones al cuadrado entre los datos y la curva de coseno ajustada. Cuanto mayor sea esta suma de cuadrados residual, mayor será la incertidumbre de los parámetros estimados. Esto se ilustra mediante la región de confianza elíptica del 95% para el par amplitud-acrofase (abajo). Cuando la elipse de error no cubre el polo, se rechaza la prueba de amplitud cero (sin ritmo) y la hipótesis alternativa sostiene que un ritmo con el período dado está presente en los datos (izquierda). Los límites de confianza conservadores del 95% para la amplitud y la acrofase pueden obtenerse dibujando círculos concéntricos y radios tangentes a la elipse de error, respectivamente. Cuando la elipse de error cubre el polo, se acepta la hipótesis nula de ausencia de ritmo (amplitud cero) (derecha). Los resultados (valor de P de la prueba de amplitud cero, ritmo porcentual o proporción de la varianza total representada por el modelo ajustado, MESOR ± SE, límites de amplitud y confianza del 95%, acrofase y límites de confianza del 95%) se enumeran en cada caso. . © Centro de Cronobiología Halberg.

La región delineada por esta elipse representa la región de confianza para los parámetros de ritmo. Los intervalos de confianza conservadores para A ^ y ϕ ^ se obtienen calculando las distancias mínima y máxima desde el polo (cero) a la elipse de error y dibujando tangentes desde el polo a la elipse de error, respectivamente [31]. Estos límites de confianza son conservadores en el sentido de que el área que delimitan es mayor que la elipse de confianza. También se pueden calcular límites más cercanos a los correspondientes al nivel α elegido para las pruebas [43].

Los errores estándar (EE) para A ^ y ϕ ^ también se pueden derivar de la matriz de covarianza para β ^, γ ^, utilizando la expansión de la serie de Taylor:

Pruebas diagnósticas de regresión

Cabe señalar que el valor P obtenido de la prueba F y los límites de confianza correspondientes derivados para M ^, β ^ y γ ^ son válidos solo si se satisfacen los supuestos subyacentes al uso del procedimiento de mínimos cuadrados. Estos supuestos son (1) el modelo se ajusta bien a los datos, (2) los residuos se distribuyen normalmente, (3) la varianza es homogénea, (4) los residuos son independientes y (5) los parámetros no cambian con el tiempo.

La bondad del ajuste se puede examinar cuando se dispone de réplicas, ya sea de múltiples recopilaciones de datos en diferentes puntos de tiempo o de datos que cubren múltiples ciclos. RSS se puede dividir aún más en el "error puro" y la "falta de ajuste". Una prueba F que compara el error puro y la falta de ajuste de sumas de cuadrados proporciona una prueba de la adecuación del modelo [44]. La suma de cuadrados del error puro (SSPE) se define como la suma de las diferencias cuadradas (en todos los puntos de tiempo) entre los datos recopilados en un punto de tiempo dado y su respectiva media aritmética, mientras que la suma de cuadrados atribuida a la falta de ajuste (SSLOF) es obtenido restando SSPE de RSS

con Y ¯ i = ∑ l Y il / n i donde nI es el número de datos recopilados en el momento tI.

La idoneidad del modelo se rechaza si

donde m es el número de puntos de tiempo yp es el número de componentes (coseno) en el modelo (p = 1 para el cosinor de un solo componente).

En presencia de falta de ajuste, se puede considerar agregar componentes en el modelo (Figura 3).

Cosinor simple de componentes múltiples. Los datos de presión arterial sistólica recopilados durante 7 días por una mujer de 45 años con una curva de coseno de 24 horas indican la presencia de falta de ajuste, desviación de la normalidad de los residuos y falta de homogeneidad de la varianza (izquierda). La adición de un componente de 12 horas (centro) al modelo (derecha) produce un mejor ajuste para el cual se validan los supuestos subyacentes. © Centro de Cronobiología Halberg.

El gráfico rankit proporciona una técnica visual atractiva para probar la normalidad [44, 45]. En esta prueba, los errores (eI) se ordenan por orden creciente y los valores esperados de una muestra normal de tamaño N con media cero (rankits, zI) se calculan. Si los residuos se distribuyen normalmente, la regresión de eI en zI es una línea recta. La prueba de normalidad de Shapiro-Wilk se puede aplicar a tamaños de muestra pequeños (N ≤ 50) [46]. Para tamaños de muestra más grandes, se puede utilizar una prueba de bondad de ajuste de chi-cuadrado [23] comparando las frecuencias esperadas y observadas de los residuos agrupados en clases.

La varianza del término de error a veces depende del nivel esperado de la variable examinada. Este puede ser el caso de datos hormonales como la melatonina que asume valores altos por la noche pero solo valores muy bajos durante el día. Al ser todos los valores diurnos muy pequeños, la varianza también es pequeña. Pero como los datos nocturnos pueden variar mucho, su variación también está inflada. La desviación de la homogeneidad de la varianza se puede revelar mediante un gráfico de residuos en función de los valores ajustados [47]. Una banda horizontal alrededor de cero en un gráfico de este tipo indica que el supuesto es válido. Si se viola, los datos se pueden transformar, por ejemplo, tomando su raíz cuadrada o su logaritmo. También se puede realizar una prueba numérica ajustando el modelo al cuadrado de los valores estimados en lugar de los datos para obtener los residuos reI. Si

donde r denota el coeficiente de regresión de reI unoI, se rechaza el supuesto de homogeneidad de varianza.

Independencia de residuos:

Si bien la violación de la independencia no suele afectar a la estimación del parámetro en sí, sus intervalos de confianza tienden a subestimarse [48]. Cuando los residuos están correlacionados positivamente, tienden a asumir el mismo signo para secuencias largas. La prueba de corridas es una prueba no paramétrica que permite probar si las secuencias (corridas) de residuos positivos y negativos ocurren aleatoriamente. Específicamente, si los errores sucesivos son independientes, no puede haber secuencias regulares, ni demasiado largas ni demasiado cortas. En otras palabras, el número de corridas no puede ser demasiado pequeño o demasiado grande, respectivamente. Para un tamaño de muestra dado, las tablas enumeran los límites para el número aceptable de corridas compatibles con el supuesto de independencia [23, 49, 50].

Cuando los residuos están correlacionados, los datos se pueden filtrar de paso bajo promediando o diezmando (usando solo uno de cada k valores, alargando así el intervalo de muestreo de Δt a kΔt). También se puede considerar un modelo ligeramente diferente en el que el término de error se reemplaza por un término de error autorregresivo [10, 51, 52].

El problema de la estacionariedad surge principalmente en series de tiempo largas, cuando el MESOR, la amplitud, la acrofase y / o el período pueden cambiar en función del tiempo. Esto puede ocurrir, por ejemplo, cuando una persona que está siendo monitoreada viaja a través de zonas horarias (por ejemplo, de EE. UU. A Europa). Un resfriado o dolor de cabeza también puede provocar cambios transitorios en las características del ritmo circadiano de variables como la temperatura corporal, la presión arterial o la frecuencia cardíaca. Los cambios en el período se pueden anticipar cuando se eliminan las pistas de tiempo (sincronizadores ambientales). También están presentes en el caso de componentes sin sincronizador ambiental fuerte. Esto se refiere principalmente a los ciclos no fóticos, como el año transitorio de aproximadamente 1,3 años y el medio año cis de aproximadamente 5 meses que se encuentran en la velocidad del viento solar y las erupciones solares, respectivamente. Estos componentes son inestables por naturaleza, incluso en el medio ambiente. Se han encontrado contrapartes en biología, como se analiza en otra parte [3, 53–56]. Hay varios enfoques disponibles para analizar series de tiempo no estacionarias, como ondículas, transformadas de Fourier a corto plazo y ventanas espectrales deslizantes complementadas con secciones seriadas cronobiológicas, como se analiza a continuación.

Para series de tiempo cortas y escasas, para las que se desarrolló originalmente el método cosinor, los supuestos subyacentes suelen ser válidos (o al menos el poder estadístico no es suficiente para invalidarlos). Con datos más extensos y densos, aumenta la probabilidad de violar uno o varios supuestos subyacentes. La violación de una suposición también puede resultar en la violación de una o varias suposiciones. Por ejemplo, cuando hay una falta de ajuste, los residuos tienden a no ser independientes y pueden no seguir una distribución normal. Los intervalos de confianza y los valores P tienden a verse más afectados que la estimación de los parámetros. Incluso cuando se violan uno o varios supuestos subyacentes, la información del análisis de cosinor puede ser valiosa siempre que los resultados estén debidamente calificados. Muchos de los métodos convencionales de análisis de datos dependen de supuestos similares, con la excepción de técnicas robustas no paramétricas [10, 57-61].

Cosinor de componentes múltiples

El cosinor de un solo componente se puede extender fácilmente a un modelo de múltiples componentes (Figura 3)

En lugar de resolver un sistema de 3 ecuaciones con 3 incógnitas, hay 2p + 1 ecuaciones normales para estimar M y p pares de (βj, γj) o (Aj, ϕj) cuando τj se asumen conocidos. Generalmente, en las ecuaciones normales d = Su

Se puede determinar un elipsoide de confianza [43] a partir del cual se pueden derivar intervalos de confianza aproximados para la amplitud y acrofase de cada componente, como se describió anteriormente. Los cálculos se simplifican mucho en el caso de datos equidistantes que cubren un número entero de ciclos [45].

Un modelo de componentes múltiples es útil para obtener una mejor aproximación de la forma de onda de la señal cuando se desvía de la sinusoidalidad. Por ejemplo, un modelo de 2 componentes que consta de curvas de coseno con períodos de 24 y 12 horas se ha utilizado ampliamente para analizar los datos de presión arterial ambulatoria (figura 3) [62-64]. En promedio, estos dos componentes explican la mayor variación general en este caso [65]. Este modelo suele ser adecuado para aproximar la caída nocturna de la presión arterial que alcanza un nadir alrededor de la mitad del sueño [66], el ligero aumento posterior y un aumento más pronunciado después del despertar, la caída posprandial que se observa más prominentemente en los ancianos [ 67], y un lento declive al anochecer. Mientras que se pueden obtener modelos de mejor ajuste para cada paciente individual, la elección de un modelo dado utilizado como estándar de referencia permite derivar valores de referencia (como límites de predicción del 90%) para los parámetros del modelo para poblaciones específicas, generalmente clínicamente sanas. hombres o mujeres en varios grupos de edad [62]. Las desviaciones de estas normas pueden considerarse indicativas de una alteración del ritmo. Además del conocido riesgo de enfermedad cardiovascular asociado con un MESOR de presión arterial elevada, los estudios de resultados [68-72] han determinado que algunas otras alteraciones del ritmo que afectan la amplitud circadiana y la acrofase también se asocian con un aumento del riesgo de enfermedad cardiovascular [64 ].

Cosinor medio poblacional

Cuando se recopilan datos en función del tiempo sobre 3 o más individuos, el procedimiento del cosinor medio poblacional permite hacer inferencias sobre un ritmo poblacional, siempre que los k individuos representen una muestra aleatoria de esa población. Cada serie individual es analizada por el cosinor único de uno o varios componentes para producir estimaciones de u ^ = M ^ i, β ^ 1 i, γ ^ 1 i, β ^ 2 i, γ ^ 2 i,…, β ^ pi, γ ^ pi, i = 1, 2,…, k. El objetivo es hacer inferencias sobre los promedios poblacionales de los parámetros, u *. El “*” indica que las expectativas son promedios de la población y no promedios sobre los k individuos muestreados. Vectores individuales uI se supone que representan una muestra aleatoria de una población normal (2p + 1) variable con media u *. También se supone que las varianzas intraindividuales son iguales, de modo que la estimación combinada de la varianza se puede estimar como

Cuando los tamaños de muestra para todos los individuos son iguales o casi iguales, como suele ser el caso en los diseños híbridos, las estimaciones de población son promedios no ponderados de los parámetros individuales.

y las amplitudes y acrofases de la población se pueden estimar utilizando las relaciones

En las condiciones anteriores y asumiendo la normalidad de errores y parámetros individuales, las varianzas muestrales se pueden calcular como

En el caso de que el cosinor medio poblacional se pueda aplicar por separado para cada período de prueba (p = 1), un intervalo de confianza para M * viene dado por

y una elipse de confianza conjunta 1-α para β ^ *, γ ^ * consta de todos los puntos (βz*, γz*) satisfactorio

La hipótesis nula de A * = 0 se rechaza si

y los intervalos de confianza aproximados para A ^ * y ϕ ^ * se pueden obtener calculando las distancias mínima y máxima desde el polo (cero) a la elipse de error y dibujando tangentes desde el polo a la elipse de error, respectivamente (Figura 4). En cuanto al cosinor simple, también se pueden calcular límites aproximados más cercanos [43].

Límites de confianza elípticos. La elipse exterior delinea la región de confianza del 95% para la estimación conjunta de la amplitud y la acrofase (como un par). Las distancias y tangentes trazadas desde el polo a esta elipse exterior producen límites de confianza conservadores del 95% para la amplitud y la acrofase consideradas por separado, ya que el área así delineada es mayor que el área de la elipse exterior. Para obtener límites de confianza separados del 95% para la amplitud y la acrofase, las distancias y las tangentes deben trazarse a una elipse (interior) algo más pequeña. Para obtener más detalles, consulte [43]. © Centro de Cronobiología Halberg.

Pruebas de parámetros

Se han desarrollado estadísticas de prueba para probar la igualdad de MESOR, amplitudes y acrofases consideradas conjunta o separadamente para el caso del cosinor simple y el cosinor medio de la población [43]. Estas pruebas pueden permitir una interpretación más clara de los resultados, por ejemplo, en un experimento circadiano que involucra 6 puntos de tiempo con 4 horas de diferencia: las pruebas t de Student a veces se aplican en cada punto de tiempo separado sin ajuste de los valores P para pruebas múltiples cuando las diferencias son opuestas. direcciones, las pruebas de parámetros pueden revelar una diferencia en la amplitud circadiana en ausencia de una diferencia en MESOR o en la acrofase circadiana [73].

Espectros de mínimos cuadrados y espectros de cosinor medio de población

El ritmo circadiano suele ser prominente. También es omnipresente. Estas características permitieron aplicar el procedimiento de un solo cosinor a muchas series de datos breves que no abarcan más de un ciclo para obtener información valiosa sobre la organización del sistema circadiano en diferentes especies. Computacionalmente, se pueden obtener estimaciones de MESOR, amplitud y acrofase para cualquier período de prueba. Sin embargo, este procedimiento es válido solo si hay pruebas suficientes para considerar este período de prueba en particular. En ausencia de dicha evidencia, los resultados ya no pueden tomarse por su valor nominal.

Se ha vuelto mucho más fácil para los cronobiólogos recopilar datos en períodos mucho más largos y / o en intervalos mucho más cortos, pero ha sido más difícil obtener series de datos equidistantes. Incluso para las variables que se obtienen con instrumentación automatizada (como la telemetría o los monitores de presión arterial ambulatorios), no es raro que falten datos o que se recopilen datos adicionales manualmente en horarios diferentes a los programados. Las investigaciones también se han extendido fuera del ámbito circadiano. Por estas razones, un enfoque de mínimos cuadrados para el análisis de series de tiempo sigue siendo atractivo, siempre que se tome la precaución adecuada al interpretar los resultados.

Así como un cronograma proporciona información útil antes del análisis de datos cuantitativos, una vista de la estructura temporal de los datos en el dominio de la frecuencia también puede ser informativa. Para este propósito, el uso del cosinor en frecuencias de Fourier en el rango de 1 / T (donde T es la longitud de la serie de datos) hasta 1 / 2Δt (donde Δt es el intervalo de muestreo) puede verse como nada más que otro macroscópico. vista de los datos. Un gráfico de amplitudes en función de la frecuencia (espectro de mínimos cuadrados) es equivalente a una transformada discreta de Fourier cuando los datos son equidistantes [38].

Los picos espectrales grandes indican la presencia de señales y proporcionan una estimación aproximada de sus períodos. Esta información se puede utilizar para validar componentes anticipados y al mismo tiempo revelar la presencia de otros ciclos. Para los ritmos que se anticipan, la detección del ritmo y la estimación de los parámetros pueden realizarse como se describe anteriormente, siempre que los valores P se ajusten para múltiples pruebas [74]. Se debe tener cuidado con los ciclos no anticipados. La información así obtenida se puede utilizar para diseñar el próximo estudio o para examinar otras series de datos similares que podrían servir como réplicas. Se pueden realizar análisis adicionales para determinar el grado de estabilidad del componente imprevisto, por ejemplo, mediante la aplicación de una sección seriada cronobiológica [21] o una ventana espectral deslizante [75].

La representación gráfica de amplitudes logarítmicas frente a frecuencia logarítmica proporciona información útil sobre la estructura del ruido [65]. El ruido blanco corresponde aproximadamente a las mismas amplitudes de fondo en todo el rango de frecuencias. Las amplitudes de fondo más grandes a frecuencias más bajas que a frecuencias más altas representan ruido coloreado (o correlacionado), lo que indica que no se cumplen las suposiciones subyacentes, lo que da como resultado valores P subestimados e intervalos de confianza demasiado liberales de los parámetros de ritmo. La estructura del ruido puede ser valiosa en sí misma. Se utiliza, por ejemplo, para evaluar el comportamiento 1 / f de la variabilidad de la frecuencia cardíaca [76].

Los picos espectrales únicos se encuentran solo si los datos cubren un número entero de ciclos. Si este no es el caso, la señal se esparce por varias líneas espectrales [10]. Cuando esto sucede y se anticipó la señal subyacente, es posible determinar el período (frecuencia) correspondiente a la amplitud máxima aplicando el procedimiento de cosinor único no solo en las frecuencias de Fourier sino también en frecuencias intermedias adicionales. Si bien esto puede proporcionar una imagen más clara de la señal, debe tenerse en cuenta que la resolución en frecuencia (1 / T) sigue siendo la misma, determinada por la longitud de la serie, T. Se pueden utilizar conos como una ventana de Hanning [77] para reducir los lóbulos laterales asociados con el intervalo de observación finito, pero este procedimiento también afecta la estimación de los parámetros del ritmo. Si bien una conicidad de Hanning no afecta la ubicación de los picos espectrales en un espectro, el ancho del pico es más ancho y la amplitud se reduce (Figura 5). Sin embargo, sigue siendo útil para una vista macroscópica de la estructura temporal de los datos.

Efecto de aplicar un ahusamiento de Hanning en el espectro de mínimos cuadrados. Una señal simulada que consta de un armónico fundamental y un segundo armónico de amplitudes iguales muestreadas durante 10 ciclos (arriba a la izquierda) se estrecha con una ventana de Hanning (arriba a la derecha). Los espectros de mínimos cuadrados correspondientes (parte inferior) indican que, si bien la ubicación espectral de los dos picos sigue siendo la misma, las amplitudes se reducen y los anchos de banda son más amplios. Los lóbulos laterales también están muy disminuidos. Simulación y dibujos originales de C. Lee-Gierke. © Centro de Cronobiología Halberg.

Los espectros de mínimos cuadrados pueden ser muy útiles en los análisis exploratorios, pero debe tenerse en cuenta que los supuestos que subyacen al uso del cosinor único (en particular, la independencia y la normalidad) se violan la mayoría de las veces. Los espectros de cosenores medios de población son un enfoque complementario útil que no es propenso a esta limitación. Este método es similar al espectro de potencia obtenido suavizando el periodograma, que es más confiable para probar periodicidades desconocidas [78], con la importante diferencia, sin embargo, de retener la información de fase. El promedio (suavizado) se puede realizar en el dominio de la frecuencia promediando las frecuencias de Fourier consecutivas o en el dominio del tiempo. El espectro del cosinor medio poblacional utiliza promedios en el dominio del tiempo. El método consiste en subdividir el intervalo de observación T en varias (por ejemplo, k) subsecciones (o intervalos, I) de igual longitud (I = T / k). Se calcula un espectro de mínimos cuadrados para cada intervalo, utilizando el mismo tiempo de referencia común. A continuación, se aplica el procedimiento del cosinor medio poblacional en cada frecuencia de ensayo para resumir los resultados en los k intervalos. El procedimiento se puede repetir utilizando diferentes valores de k. Por tanto, las señales desconocidas detectadas sistemáticamente por este enfoque pueden verse con mayor confianza.

Cosinor lineal-no lineal extendido

Cuando se desconoce el período, el modelo de coseno único (ecuaciones 1 y 12) ya no se puede linealizar en sus parámetros, ya que el período está en el argumento de la función coseno. A partir de una estimación inicial (conjetura) para el período, todos los parámetros se pueden estimar mediante iteraciones destinadas a minimizar la suma residual de cuadrados. Marquardt [79] desarrolló un algoritmo que realiza una interpolación óptima entre la serie de Taylor y los métodos de gradiente. También obtuvo una forma de aproximar los intervalos de confianza para todos los parámetros, incluido el período [80]. Para el caso particular de los modelos de un solo componente, Bingham ofrece un enfoque de fácil comprensión [81].

Para señales de baja frecuencia, el recocido simulado [82] es otro método adecuado que tiene la ventaja de no requerir la especificación de valores iniciales para los períodos. Sin embargo, este enfoque no funciona bien para señales muy nítidas en el rango de frecuencia más alto del espectro. Tanto el recocido simulado como el enfoque no lineal de Marquardt se desempeñaron mejor para distinguir dos señales con períodos cercanos muestreados en menos de un ciclo de tiempo, en comparación con otros enfoques [83].

Para señales con una forma de onda simétrica, el procedimiento no lineal puede producir una estimación aceptable del período fundamental sobre la base de registros muy cortos que ni siquiera cubren un ciclo completo [84]. Sin embargo, este no es el caso cuando la forma de onda es asimétrica. Las simulaciones indican que se necesitan alrededor de 5 ciclos para obtener una estimación razonable del período en este caso, cuando el modelo ajustado incluye solo el componente fundamental. La inclusión de términos armónicos adicionales en el modelo permite al procedimiento no lineal estimar correctamente el período fundamental con datos que no cubren más de 2 ciclos [84].

Análisis de datos no estacionarios

Cuando los datos son equidistantes o se vuelven equidistantes promediando y llenando los vacíos de datos por interpolación, se pueden realizar ondículas [85]. Este enfoque ha sido útil para descubrir componentes no detectados anteriormente [86]. Las transformadas de Fourier a corto plazo se pueden utilizar para visualizar cambios en la estructura espectral de los datos en función del tiempo [87]. Alternativamente, se pueden calcular ventanas espectrales deslizantes [75].El método consiste en definir un intervalo (I) que se desplaza progresivamente por un incremento dado (δt) a lo largo de la serie de datos. Se calcula un espectro de mínimos cuadrados en cada intervalo en un rango de frecuencia especificado. Tanto un incremento armónico fraccional (δh & lt 1) como los intervalos superpuestos (δt & lt I) se eligen para ayudar a visualizar el curso temporal de los cambios en la frecuencia y / o amplitud que ocurren como una función del tiempo en un gráfico 3D y / o un gráfico de superficie. . En tal visualización, el tiempo y la frecuencia son los dos ejes horizontales y la amplitud se muestra en el eje vertical en un gráfico 3D o como diferentes sombreados en un gráfico de superficie. Un ejemplo se relaciona con componentes competitivos de aproximadamente 24,0 y 24,8 horas que coexisten en la fisiología de una mujer aparentemente selenososensible con episodios adinámicos que se repiten dos veces al año y duran de 2 a 3 meses, como se ilustra para la presión arterial sistólica en la Figura 6. Otro ejemplo ilustra la prominencia cambiante de los ritmos aproximadamente semanal y aproximadamente diario en la presión arterial y la frecuencia cardíaca durante los primeros 40 días de vida de un niño clínicamente sano [88]. Mientras que el procedimiento se puede realizar con datos no equidistantes, la interpretación de los resultados es de gran ayuda cuando los datos son equidistantes, ya que los cambios en la frecuencia de muestreo también están asociados con cambios en la estructura espectral que aparecen en el gráfico. Una elección acertada de I y del rango de frecuencia examinado es importante para minimizar los lóbulos laterales. El uso de un cono de Hanning [77] también es útil en este tipo de análisis exploratorio.

Ventana espectral deslizante (gráfico de superficie). La presión arterial sistólica se midió automáticamente las 24 horas del día por una mujer de 62 años con episodios recurrentes de depresión adinámica que se producían dos veces al año y duraban 2-3 meses. Los análisis no lineales complementarios (no mostrados) indican la coexistencia de componentes de aproximadamente 24,0 y 24,8 horas, y su prominencia relativa alterna entre el bienestar y la depresión adinámica. Los cambios en el período circadiano más prominente en función del tiempo son evidentes a partir de los cambios de amplitud (sombreado) y ubicación a lo largo de la escala vertical. © Centro de Cronobiología Halberg.

Siempre que se pueda centrar la atención en un componente específico con un período de prueba determinado, se puede realizar una sección cronobiológica en serie [21]. En cuanto a la ventana espectral de deslizamiento, se selecciona un intervalo I que se desplaza progresivamente a lo largo de la serie temporal en incrementos de δt. A los datos de cada intervalo, se les aplica el procedimiento de coseno único de un solo componente. Para visualizar los resultados, se muestra un cronograma en la parte superior, seguido de la secuencia de MESOR, amplitudes y acrofases a medida que cambian en función del tiempo, provisto de una medida de incertidumbre. También se muestran los valores P correspondientes de la prueba de amplitud cero y el número de datos por intervalo para ayudar a interpretar cualquier cambio en los resultados. Este procedimiento se ha utilizado ampliamente en estudios de cambios de fase asociados con vuelos transmeridianos [89], como se ilustra en la Figura 7, y en los casos en los que el ritmo circadiano está desincronizado a partir de las 24 horas [90, 91].

Sección de serie cronobiológica. El flujo espiratorio máximo se midió por sí mismo varias veces al día por un hombre de 53 años. Los datos que cubren un lapso de 14 meses se muestran en la fila 1. Se analizan en un intervalo de 20 días desplazado progresivamente por 2 días. Los datos de cada intervalo se ajustan con una curva de coseno de 24 horas. A partir de los valores P que se muestran en la fila 2, se puede ver que el ritmo circadiano se detectó con significación estadística la mayor parte del tiempo, a excepción de dos intervalos cortos, uno que coincide con un vuelo transmeridiano (cuando se recopilaron menos datos, fila 5) y el otro con influenza. Mientras que la acrofase de 24 horas permanece relativamente estable a lo largo del registro (fila 4), el MESOR (fila 3, curva inferior) y, en menor medida, la amplitud circadiana (fila 3, distancia entre las dos curvas) experimentan cambios bruscos, notablemente en asociación con la influenza y antes con un cambio en el horario del tratamiento. © Centro de Cronobiología Halberg.

El procedimiento se ha ampliado de dos formas. En primer lugar, en cada intervalo se puede ajustar un modelo de cosinor único de componentes múltiples en lugar de uno de un solo componente. Este procedimiento se ha utilizado, por ejemplo, para ilustrar que la prominencia de un componente de aproximadamente 5 meses de la frecuencia cardíaca automedida durante 4 décadas por un hombre clínicamente sano sigue el cambio de aproximadamente 11 años en las erupciones solares en las que se ha documentado este componente. [92]. En este análisis, el componente de 5 meses se ajustó junto con los componentes de 1,0 y 0,5 años durante un intervalo de 4 años desplazado por incrementos de 0,2 años [93]. La Figura 8 ilustra la prominencia cambiante de los tres componentes en función del tiempo. Se destaca un ciclo de alrededor de 11 años en la prominencia del componente de alrededor de 5 meses. En segundo lugar, se puede ajustar un modelo no lineal en cada intervalo y mostrar el período en función del tiempo con su intervalo de confianza del 95%. Este enfoque se utilizó para ilustrar la gran variabilidad en la duración del ciclo de actividad solar de aproximadamente 11 años, Figura 9 [94].

Sección de serie de varios componentes. La frecuencia cardíaca, que un hombre sano se midió varias veces al día durante varias décadas, se promedió durante semanas consecutivas. Los promedios semanales se ajustan con un modelo de 3 componentes que consta de curvas de coseno con períodos de 1,0, 0,5 y 0,41 año en un intervalo de 4 años desplazado por 0,2 años a lo largo de todo el registro. El curso temporal de las amplitudes de los 3 componentes se muestra en la parte superior. Los símbolos llenos de luz, llenos de luz y vacíos corresponden a los valores P & lt0.05, 0.05 & lt P & lt 0.10 y & gt0.10 de las pruebas de amplitud cero, respectivamente. Los resultados para el componente de 0,41 años se reproducen a continuación, donde se comparan con el índice de llamarada solar que, según los físicos, se caracteriza por un componente de aproximadamente 5 meses (0,41 años). La prominencia del componente de aproximadamente 5 meses en la frecuencia cardíaca humana sigue un ciclo de aproximadamente 11 años, que es similar al que caracteriza a las erupciones solares. © Centro de Cronobiología Halberg.

Sección serial no lineal. El período del ciclo de aproximadamente 11 años en la actividad solar se estima mediante mínimos cuadrados no lineales aplicados a los números anuales de Wolf analizados en un intervalo de 35 años progresivamente movido por 5 años a lo largo de la serie de tiempo. El ciclo de actividad solar tiene un período que puede variar de aproximadamente 9 a 15 años, que se muestra aquí con su intervalo de confianza del 95% y se compara con la duración oficial del ciclo. © Centro de Cronobiología Halberg.


¿Son las elipses de MacAdam teóricamente predecibles? - biología

Una exploración completa de los complicados (y verdaderamente asombrosos) orígenes biológicos de la percepción del color está más allá del alcance de esta breve guía. Pero es importante conocer estos hechos:

  • Dado que las personas tienen diferentes porcentajes de conos rojos, verdes y azules, pueden percibir el color y diferenciar el tono de manera ligeramente diferente. Dado que la percepción del color es, en última instancia, una construcción del cerebro, las señales al cerebro variarán, lo que hará imposible comparar las imágenes en color que ven diferentes personas.
  • Los bastones y conos comprenden los tipos clave de células fotorreceptoras en la retina del ojo. Las células bastón funcionan con luz menos intensa. Crítico para la visión periférica y la visión nocturna, los bastones se concentran en los bordes externos de la retina. Hay más de 90 millones de células bastón en el ojo humano. Las células cónicas son responsables de la visión del color y funcionan mejor con luz relativamente brillante. Hay alrededor de seis a siete millones de conos, concentrados hacia la mácula del ojo.

  • Las diferencias culturales y las preferencias personales afectan la percepción del color.
  • Algunas personas (8% hombres, 1% mujeres) experimentan algún tipo de deterioro en la percepción del color.
  • Las fuentes de luz blanca densamente azul tienen un brillo percibido más alto, si los valores de lumen son los mismos.
  • La reflectancia del objeto (por ejemplo, una pared) también afecta la percepción del color, ya que afecta la cantidad de luz / color que realmente llega a los receptores de los ojos.
  • Una elipse de MacAdam es el término utilizado para describir el punto en el que una diferencia de color se vuelve perceptible para la persona promedio que la ve en un entorno de laboratorio.
  • Con niveles de luz muy bajos, las personas no pueden percibir ningún color, solo blanco y negro, un fenómeno conocido como visión escotópica (visión del ojo en condiciones de poca luz).
  • Como prueba del poder de la luz, la luz de color tiene un efecto significativo en el ciclo de sueño / vigilia humano.
  • La percepción de la luz también cambia a medida que el ojo envejece, lo que crea la necesidad de que las fuentes de luz cambien y se adapten para adaptarse al envejecimiento, así como a las preferencias personales.

Y como si el color no fuera lo suficientemente complicado para una persona promedio, considere la sinestesia del color, una condición en la que una persona percibe letras o números como inherentemente coloreados. O cromestesia, donde los sonidos pueden desencadenar la percepción del color.

Entendiendo la base

Es útil para los profesionales de la iluminación de hoy en día comprender la percepción del color, incluidos los detalles fisiológicos básicos de cómo los humanos experimentan y comprenden el color. Hemos destacado algunos de ellos aquí, pero hay muchos otros recursos en línea más detallados. Y un conocimiento práctico de los diversos métodos de medición del color también es importante, ya que estos conceptos son fundamentales para la forma en que se caracteriza, cuantifica y especifica la luz. CRI, CCT y muchos más: estos acrónimos forman parte de la lengua vernácula especializada de la industria de la iluminación.

Preferencia de color

Los investigadores han estado explorando la preferencia de color para identificar por qué las personas tienden a preferir ciertas fuentes de iluminación y colores. Resulta que muchas personas tienden a preferir fuentes de iluminación que tienen una gama más amplia en el área roja, lo que provoca una ligera sobresaturación en el rango rojo frente a la luz del día. ¿Significa esto que los diseñadores de iluminación deberían especificar más rojo? En última instancia, esa es una decisión personal, una que sopesa las preferencias de color inherentemente subjetivas frente a mantenerse realista (por ejemplo, cerca de la luz del día), sin distorsionar ninguna reproducción de color individual.

Entendiendo la base

Es útil para los profesionales de la iluminación de hoy en día comprender la percepción del color, incluidos los detalles fisiológicos básicos de cómo los humanos experimentan y comprenden el color. Hemos destacado algunos de ellos aquí, pero hay muchos otros recursos en línea más detallados. Y un conocimiento práctico de los diversos métodos de medición del color también es importante, ya que estos conceptos son fundamentales para la forma en que se caracteriza, cuantifica y especifica la luz. CRI, CCT y muchos más: estos acrónimos forman parte de la lengua vernácula especializada de la industria de la iluminación.

¿Cómo se mide el color?

Cuando el mundo estaba iluminado solo por el sol, no había una necesidad real de medir o cuantificar el color. La luz era simplemente luz y el mundo percibía los colores de manera similar, aunque con las variaciones inherentes creadas por la percepción y la preferencia. Con la llegada de las fuentes de luz eléctrica (desde incandescentes hasta fluorescentes y LED) surgió la necesidad de cuantificar y medir con precisión esa salida de luz 1 y comparar diferentes fuentes de luz.

Estas son solo algunas de las formas en que se mide la luz a través de la cuantificación científica:

  • Salida de lumen: una forma tradicional de medición
    La especificación más utilizada para evaluar y comparar el rendimiento de la iluminación convencional es la salida de luz. Sin embargo, las definiciones completas y precisas de lúmenes y términos relacionados suelen ser técnicas y complejas, y no se comprenden bien. Las mediciones de lumen no deben ser la única medición considerada al comparar fuentes de luz.
  • Temperatura de color correlacionada (CCT): una representación fundamental de la luz blanca
    El espacio de color CIE 2 1960 muestra un rango de temperaturas de color, medidas en grados K ​​(Kelvin) a lo largo de la curva del cuerpo negro, de rojo a naranja a amarillo y de blanco a azul. Esta progresión es similar a la forma en que una pieza de hierro cambia de color cuando se calienta en la fragua de un herrero. 3

    CCT proporciona una base para identificar la calidad de la luz asignando una temperatura de color a esa luz. Este enfoque funciona bien con bombillas incandescentes, que utilizan un filamento que se calienta hasta que emite luz, por lo que la temperatura del filamento es también la temperatura de color de la luz. Sin embargo, CCT no tiene en cuenta la biología humana y la percepción de la luz. Simplemente compara el color del tungsteno calentado con la apariencia del color de una fuente de luz, lo que lo hace funcionalmente obsoleto en un contexto de LED.

  • Índice de reproducción cromática (CRI): qué tan bien una fuente de luz reproduce los colores
    Otra medida tradicional clave de la luz y el color es el índice de reproducción cromática (nuevamente, ideado por CIE), que mide la capacidad de una fuente de luz para reproducir los colores de muestras de color estandarizadas, designadas R1 a R8, con R9 (un rojo intenso saturado color) a menudo añadido. La puntuación de reproducción cromática califica la fidelidad a la fuente de referencia, siendo un CRI de 100 la fidelidad más alta en comparación con la fuente de referencia. Por ejemplo, las fuentes de luz incandescente tienen un índice de CRI de 100. Y la reproducción del color bajo la luz solar cambia según la hora del día y las condiciones climáticas.

Al igual que con otros métodos tradicionales de medición del color, CRI presenta problemas al caracterizar las fuentes de LED. Por ejemplo, CRI no puede predecir eficazmente la calidad del color de los LED de luz blanca. Y diferentes fuentes con el mismo valor CRI renderizan los colores de manera muy diferente.

  1. La salida de luz es el término informal para la cantidad de luz que produce una luminaria. El término más técnico para los datos que describen la luz visible producida por una fuente de luz es fotometría.
  2. Comisión Internacional de Iluminación, conocida como CIE por su título francés, la Commission Internatonale de l'Eclairage, una organización “dedicada a la cooperación mundial y al intercambio de información sobre todos los asuntos relacionados con la ciencia y el arte de la luz y la iluminación, el color y la visión y tecnología de imagen ".
  3. De hecho, el cuerpo negro es un objeto teórico que absorbe toda la radiación electromagnética que cae sobre él. Debido a que no refleja la luz, parece negro. Y aunque no existen cuerpos negros perfectos, ciertos metales ofrecen aproximaciones.

Entendiendo la base

Es útil para los profesionales de la iluminación de hoy en día comprender la percepción del color, incluidos los detalles fisiológicos básicos de cómo los humanos experimentan y comprenden el color. Hemos destacado algunos de ellos aquí, pero hay muchos otros recursos más detallados en línea. Y un conocimiento práctico de los diversos métodos de medición del color también es importante, ya que estos conceptos son fundamentales para la forma en que se caracteriza, cuantifica y especifica la luz. CRI, CCT y muchos más: estos acrónimos forman parte de la lengua vernácula especializada de la industria de la iluminación.

La ciencia del color tradicional creó una forma racional para que los diseñadores de iluminación y otros cuantificaran la salida de luz y describieran las cualidades de color específicas de las fuentes de iluminación incandescentes convencionales. CCT, CRI y otras mediciones sirvieron como un paradigma preciso para definir la luz dentro de ese contexto. Pero, como hemos visto, los viejos estándares no son ideales para el mundo de los LED. Los estándares aceptados y su terminología asociada no desaparecerán (al menos de inmediato), sino que se complementarán con otras formas más precisas de cuantificar el color y diferenciar entre diferentes fuentes de luz.


Como suele suceder, la disrupción digital (iluminación LED) ha inspirado un esfuerzo paralelo hacia la estandarización. En algún momento en el futuro, nuestra industria adoptará una forma estandarizada de evaluar la reproducción del color de la fuente de luz. Los esfuerzos innovadores, incluida la escala de calidad del color (CQS), el índice de área de gama (GAI), y ahora el TM-30 de IES, pueden verse como pasos importantes hacia el objetivo de la estandarización. Pero la realidad del día a día para los profesionales de la iluminación de hoy es que tienen muchas alternativas disponibles a la hora de elegir cómo lograr su visión creativa. Conocer estas alternativas, y sus fortalezas particulares, es fundamental.

El diseño de iluminación se trata de opciones.

Para los diseñadores de iluminación, la elección inicial es entre las tres variedades principales de luz: blanco, color o efectos de cambio de color. Esta elección conduce a un segundo nivel de decisiones: qué tipo de fuente de luz utilizar para crear esa luz. Antes de elegir una luminaria, factor de forma o proveedor específico, los profesionales de la iluminación se enfrentan a una decisión fundamental sobre qué tipo de fuente de luz funcionará mejor para su aplicación.


Introducción

Las invasiones biológicas a menudo se asocian con la disminución de especies nativas que pueden modificar los patrones de biodiversidad y conducir a la homogeneización biótica (Arim et al. 2006 Andreou et al. 2011). Predecir qué especies introducidas establecerán poblaciones invasoras y causarán impactos sigue siendo un desafío ecológico importante (Barney & Whitlow 2008 Britton-Simmons & Abbott 2008). Con la aceleración de las tasas de invasiones biológicas (Cohen & Carlton 1998 Jackson & Gray 2013) y los ejercicios de exploración del horizonte que predicen las tasas actuales de introducciones continuarán (p. Ej., Gallardo & Aldridge 2015 Roy et al. 2014), existe un requisito continuo de que las evaluaciones de riesgos se basen en datos empíricos (Copp et al. 2014). Las interacciones dietéticas con especies residentes determinan con frecuencia el resultado de la introducción de especies no nativas (Baiser, Russell & Lockwood 2010 Jackson et al. 2012), e influyen fuertemente en los impactos ecológicos que se desarrollan en las comunidades nativas a través, por ejemplo, de vínculos depredador-presa (por ejemplo, Woodford et al. 2005) y competencia de recursos (por ejemplo, Kakareko et al. 2013). Por lo tanto, una comprensión integral de la ecología trófica de las especies invasoras es esencial para una evaluación de riesgos sólida (Britton, Davies & Brazier 2010 Britton, Gozlan & Copp 2011).

Un paradigma de larga data de la ecología de la invasión de agua dulce es que los impactos ecológicos a menudo se desarrollan a través de una mayor competencia interespecífica por los recursos alimentarios que se produce entre los peces nativos invasores y simpátricos (Gozlan et al. 2010a Cucherousset et al. 2012). Se han informado efectos competitivos adversos de los peces invasores en una variedad de familias que abarcan diferentes gremios de alimentación (por ejemplo, Salmonidae, Crowl, Townsend & McIntosh 1992 Cyprinidae, Weber & Brown 2011 Cichlidae, Martin, Valentine & Valentine 2010). Por el contrario, en ecosistemas donde los recursos no se explotan por completo, las especies invasoras pueden ocupar nichos dietéticos vacíos que facilitan su colonización al reducir la competencia con las poblaciones nativas (Shea & Chesson 2002 Jackson & Britton 2014). Esta partición de nichos es consistente con la teoría clásica de nichos tróficos que predice que las especies ocupan nichos vacíos y esto permite su coexistencia estable con otros miembros de la comunidad (Elton 1958 Chesson 2000 Kylafis & Loreau 2011). Además, la hipótesis de variación de nicho predice que bajo competencia interespecífica, las poblaciones se vuelven menos generalizadas en su dieta (Van Valen 1965) y, por lo tanto, las disminuciones en el ancho del nicho a menudo ocurren en poblaciones nativas después de una invasión (Human & Gordon 1996 Thomson 2004 Olsson et al. 2009), y también se espera que las especies invasoras competidoras ocupen nichos más pequeños que sus contrapartes alopátricas (Jackson et al. 2012). En contraste, una mayor competencia por los recursos puede resultar en nichos tróficos más grandes que permiten a las especies mantener sus requerimientos energéticos (Svanbäck & Bolnick 2007). Estas teorías ecológicas contrastantes sobre las consecuencias para los nichos tróficos de las especies nativas después de una invasión pueden, por lo tanto, probarse utilizando especies modelo apropiadas para predecir mejor los resultados e impactos de la invasión.

Nuestro objetivo era probar estas teorías ecológicas contrastantes mediante el uso de una especie de pez modelo invasor y tres especies de peces nativos modelo. Los objetivos fueron (i) cuantificar cómo la invasión modificó el ancho y la posición del nicho trófico de tres peces nativos modelo en mesocosmos experimentales (1000 L) utilizando la especie en tratamientos alopátricos y simpátricos (ii) evaluar la ecología trófica del invasor y los tres modelos peces nativos en otras dos escalas espaciales: estanques 'pequeños' (& lt400 m −2) de diversidad de peces relativamente baja y estanques 'grandes' (& gt600 m −2) de diversidad de peces relativamente alta y (iii) probar la hipótesis de que los patrones generales La divergencia o superposición de nichos tróficos detectados entre las especies invasoras y nativas a escalas espaciales pequeñas (mesocosmos) también son evidentes a escalas espaciales más grandes y en sistemas de mayor diversidad de especies. La especie invasora modelo fue el gudgeon topmouth Pseudorasbora parva (Temmnick & Schlegel), una de las 10 especies más invasoras de Europa que es de origen del sudeste asiático (Britton & Gozlan 2013). Si bien un estudio anterior sugirió que los impactos ecológicos adversos para los peces nativos ocurren a través de interacciones competitivas con PAG. parva (Britton, Davies & Harrod 2010), estudios recientes han sugerido un mínimo intercambio de recursos alimenticios entre PAG. parva y especies nativas en muchas comunidades de peces invadidas (por ejemplo, Jackson & Britton 2013, 2014). El modelo de peces nativos fue la carpa común. Cyprinus carpio L., tenca Tinca tinca (L.) y espinoso de tres espinas Gasterosteus aculeatus L. Tenga en cuenta que como C. carpio ha estado presente desde al menos la Edad Media en el Reino Unido y en Bélgica desde el siglo XIII, y se considera naturalizado en ambos (Verreycken et al. 2007 Britton et al. 2010), fue tratada como una especie nativa a los efectos del estudio. A diferencia de, PAG. parva se introdujo en Europa sólo en la década de 1960 (Gozlan et al. 2010b). Las cuatro especies de peces son omnívoras, con PAG. parva, C. carpio y GRAMO. aculeatus ser bentopelágico y T. tinca siendo principalmente un recolector bentónico (www.fishbase.org).


Abstracto

  1. A pesar de la investigación en curso sobre la ecología de la red alimentaria y la biogeografía funcional, los vínculos entre la estructura de la red alimentaria, los rasgos funcionales y las condiciones ambientales a través de escalas espaciales siguen siendo poco conocidos. Los nichos tróficos, definidos como la cantidad de energía y el espacio elemental que ocupan las especies y las redes alimentarias, pueden ayudar a salvar esta división.
  2. Aquí nos preguntamos cómo los rasgos funcionales de las especies, las condiciones ambientales de los hábitats y la escala espacial de análisis determinan conjuntamente las características de los nichos tróficos. Usamos nichos isotópicos como un proxy de nichos tróficos y realizamos análisis a escalas espaciales que van desde las redes alimentarias locales y las metacomunidades hasta sitios geográficamente distantes.
  3. Tomamos muestras de macroinvertebrados acuáticos de 104 bromelias de tanque distribuidas en cinco sitios de América Central a América del Sur y compilamos los rasgos funcionales de los macroinvertebrados y los valores de isótopos estables (δ 15 N y δ 13 C). Evaluamos cómo los nichos isotópicos dentro de cada bromelia fueron influenciados por la composición de rasgos funcionales de sus invertebrados asociados y las condiciones ambientales (es decir, el tamaño del hábitat, la cobertura del dosel [CC] y la concentración de detritos [DC]). Luego evaluamos si la dieta de los depredadores dominantes y, en consecuencia, las vías de energía dentro de las redes tróficas reflejaban cambios funcionales y ambientales entre las bromelias en todos los sitios. Por último, determinamos hasta qué punto los nichos isotópicos de macroinvertebrados dentro de cada bromelia contribuyeron a los nichos isotópicos de la metacomunidad dentro de cada sitio y comparamos estos nichos a nivel de la metacomunidad en escalas biogeográficas.
  4. A nivel de bromelia, los nichos isotópicos aumentaron con la riqueza funcional de especies en la red trófica y las CD en la bromelia. La dieta de los principales depredadores rastreó cambios en la biomasa de presas a lo largo de gradientes de CC y DC. Las bromelias que crecieron bajo CC heterogénea mostraron menos redundancia trófica y, por lo tanto, se combinaron para formar nichos isotópicos de metacomunidades más grandes. Por último, el tamaño de los nichos de las metacomunidades dependía de la heterogeneidad dentro del sitio en CC.
  5. Nuestros resultados sugieren que los nichos tróficos ocupados por las redes tróficas pueden escalar de manera predecible desde las redes tróficas locales hasta las metacomunidades y las regiones biogeográficas. Este proceso de escalado está determinado tanto por los rasgos funcionales de las especies como por la heterogeneidad en las condiciones ambientales.

Un resumen en lenguaje sencillo está disponible para este artículo.


Apéndice 5: Fluctuaciones estocásticas en las tasas evolutivas

El análisis presentado en el Apéndice 4 se basó en una aproximación determinista, que ignora varias fuentes de estocasticidad (ver texto principal). Para ilustrar esta estocasticidad, realizamos simulaciones individuales como se describe en Bürger y Lynch (1995). En la figura A3 se muestran dos ejecuciones ejemplares. Si bien el fenotipo medio de la población sigue el óptimo móvil, las tasas de cambio fenotípico de generación en generación (κ) en haldanes fluctúan como consecuencia de factores no selectivos como la deriva genética, la variación ambiental y las fluctuaciones en la variación fenotípica. Fluctuaciones observadas en κ se amplifican aún más si solo se muestrea una parte de la población (líneas grises en la Fig. A3), y su rango puede superar ampliamente el 0,1 haldanes predicho por Bürger y Lynch (1995), ver Fig. A4. De manera similar, en poblaciones pequeñas, la deriva y la variación ambiental por sí solas pueden inducir tasas de cambios de hasta 0,15. haldanes (Figura A5). En general, estos resultados arrojan serias dudas sobre nuestra capacidad para predecir el destino de las poblaciones sobre la base de medidas a corto plazo del cambio microevolutivo.


Ver el vídeo: Gráfica y elementos de la Elipse conociendo la ecuación canónica. Ejemplo 1 (Agosto 2022).