Astronomía

En SETI, ¿alguien ha calculado una estimación del tiempo medio entre observaciones?

En SETI, ¿alguien ha calculado una estimación del tiempo medio entre observaciones?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Entonces, la Ecuación de Drake, propuesta por Frank Drake, se cita a menudo como un medio para estimar el número de civilizaciones inteligentes que existen en el universo observable.

Los cálculos iniciales de Drake arrojaron alrededor de 10,000 civilizaciones. Pero los refinamientos en la ecuación sobre cómo interpretar y los datos actualizados han llevado recientemente a esta evaluación publicada en Astrobiology Magazine: "Hay un 75% de probabilidad de que podamos encontrar ET entre 1.361 y 3.979 años luz de distancia".

Pero lo que más me interesa tiene que ver con nuestra tecnología y esfuerzos para detectar la primera civilización en términos de estimar un tiempo medio entre observaciones.

Seguramente, dado el resultado de la ecuación de Drake, nuestros esfuerzos actuales y posiblemente otros factores a considerar, como la teoría del muestreo, debe haber una forma de calcular esto. ¿Alguien ha perseguido esto? ¿Si es así, cuáles son los resultados? ¿horas ?, ¿días? ¿años? ¿siglos?

Creo que tal cálculo justificaría esfuerzos e inversiones más concertados o el abandono de cualquier esperanza. O quizás una estrategia diferente para mitigar los supuestos en el cálculo para reducir el tiempo medio.


¿Cuántos extraterrestres hay en la Vía Láctea? Los astrónomos recurren a las estadísticas en busca de respuestas

En el episodio 12 de Cosmos, que salió al aire el 14 de diciembre de 1980, el co-creador y presentador del programa & rsquos Carl Sagan presentó a los televidentes la ecuación epónima del astrónomo Frank Drake & rsquos. Utilizándolo, calculó el número potencial de civilizaciones avanzadas en la Vía Láctea que podrían contactarnos usando el equivalente extraterrestre de nuestra moderna tecnología de radiocomunicación. La estimación de Sagan & rsquos osciló entre & ldquoa lamentables pocos & rdquo a millones. "Si las civilizaciones no siempre se destruyen a sí mismas poco después de descubrir la radioastronomía, entonces el cielo puede estar tarareando suavemente con mensajes de las estrellas", entonó Sagan con su inimitable manera.

Sagan era pesimista acerca de que las civilizaciones pudieran sobrevivir a su propia `` adolescencia '' tecnológica durante el período de transición en el que el desarrollo de una cultura y un desarrollo de, digamos, energía nuclear, bioingeniería o una miríada de otras capacidades poderosas podría fácilmente conducir a la autoaniquilación. En esencia, en todos los demás sentidos, era optimista sobre las perspectivas de vida e inteligencia pangalácticas. Pero la base científica de sus creencias era, en el mejor de los casos, inestable. Sagan y otros sospecharon que la aparición de vida en mundos clemente debe ser una inevitabilidad cósmica, porque la evidencia geológica sugiere que surgió sorprendentemente rápido en la Tierra: hace más de cuatro mil millones de años, prácticamente tan pronto como nuestro planeta se enfrió lo suficiente de su formación ardiente. Y si, al igual que en nuestro mundo, la vida en otros planetas surgió rápidamente y evolucionó para volverse cada vez más compleja con el tiempo, quizás la inteligencia y la tecnología también podrían ser comunes en todo el universo.

En los últimos años, sin embargo, algunos astrónomos escépticos han tratado de poner más peso empírico detrás de tales pronunciamientos utilizando una forma sofisticada de análisis llamada estadística bayesiana. Se han centrado en dos grandes incógnitas: las probabilidades de que surja vida en planetas similares a la Tierra a partir de condiciones abióticas y el proceso mdasha llamado abiogénesis y, a partir de ahí, las probabilidades de que surja la inteligencia. Incluso con tales estimaciones en la mano, los astrónomos no están de acuerdo sobre lo que significan para la vida en otras partes del cosmos. Esa falta de consenso se debe a que incluso el mejor análisis bayesiano solo puede hacer mucho cuando la evidencia sólida de vida e inteligencia extraterrestre es escasa.

La ecuación de Drake, que el astrónomo introdujo en 1961, calcula el número de civilizaciones en nuestra galaxia que pueden transmitir y recibir mensajes interestelares a través de ondas de radio. Se basa en multiplicar una serie de factores, cada uno de los cuales cuantifica algún aspecto de nuestro conocimiento sobre nuestra galaxia, planetas, vida e inteligencia. Estos factores incluyen & fnofpag, la fracción de estrellas con planetas extrasolares nortemi, el número de planetas habitables en un sistema extrasolar & fnofl, la fracción de planetas habitables en los que surge la vida, etc.

"En el momento en que Drake anotó [la ecuación] & mdashor incluso hace 25 años & mdash casi cualquiera de esos factores podría haber sido el que hace que la vida sea muy rara", dice Ed Turner, astrofísico de la Universidad de Princeton. Ahora sabemos que los mundos alrededor de las estrellas son la norma, y ​​que aquellos similares a la Tierra en los términos más básicos de tamaño, masa e insolación también son comunes. En resumen, parece que no hay escasez de espacio galáctico que la vida podría ocupar. Sin embargo, "una de las mayores incertidumbres en toda la cadena de factores es la probabilidad de que la vida comience alguna vez y de que se dé ese salto de la química a la vida, incluso en las condiciones adecuadas", dice Turner.

Ignorar esta incertidumbre puede llevar a los astrónomos a hacer afirmaciones bastante audaces. Por ejemplo, el mes pasado Tom Westby y Christopher Conselice, ambos de la Universidad de Nottingham en Inglaterra, fueron noticia cuando calcularon que debería haber al menos 36 civilizaciones inteligentes en nuestra galaxia capaces de comunicarse con nosotros. La estimación se basó en la suposición de que la vida inteligente emerge en otros planetas habitables similares a la Tierra alrededor de 4.500 millones a 5.500 millones de años después de su formación.

"Eso es solo una suposición muy específica y fuerte", dice el astrónomo David Kipping de la Universidad de Columbia. & ldquoNo veo ninguna evidencia de que sea una apuesta segura. & rdquo

Responder preguntas sobre la probabilidad de abiogénesis y el surgimiento de la inteligencia es difícil porque los científicos solo tienen una sola pieza de información: la vida en la Tierra. "Ni siquiera tenemos un punto de datos completo", dice Kipping. & ldquoNo sabemos cuándo surgió la vida, por ejemplo, en la Tierra. Incluso eso está sujeto a incertidumbre. & Rdquo

Otro problema más al hacer suposiciones basadas en lo que observamos localmente es el llamado sesgo de selección. Imagínese comprar boletos de lotería y ganar el premio mayor en su intento número 100. De manera razonable, podría asignar un 1 por ciento de probabilidad de ganar la lotería. Esta conclusión incorrecta es, por supuesto, un sesgo de selección que surge si encuesta solo a los ganadores y ninguno de los fallidos (es decir, las decenas de millones de personas que compraron boletos pero nunca ganaron la lotería). Cuando se trata de calcular las probabilidades de abiogénesis, "no podemos tener acceso a las fallas", dice Kipping. & ldquoAsí que esta es la razón por la que estamos en una posición muy desafiante cuando se trata de este problema. & rdquo

Ingrese al análisis bayesiano. La técnica utiliza el teorema de Bayes & rsquos, que lleva el nombre de Thomas Bayes, un estadístico y ministro inglés del siglo XVIII. Para calcular las probabilidades de que ocurra algún evento, como la abiogénesis, los astrónomos primero proponen una distribución de probabilidad probable y mdasha, por así decirlo, la mejor suposición. Por ejemplo, se puede suponer que la abiogénesis es tan probable entre 100 millones y 200 millones de años después de la formación de la Tierra como entre 200 millones y 300 millones de años después de ese tiempo o cualquier otro fragmento de 100 millones de años de la historia de nuestro planeta y rsquos. Estos supuestos se denominan a priori bayesianos y se hacen explícitos. Luego, los estadísticos recopilan datos o pruebas. Finalmente, combinan la evidencia previa y la evidencia para calcular lo que se llama probabilidad posterior. En el caso de la abiogénesis, esa probabilidad sería la probabilidad de que surja vida en un planeta similar a la Tierra, dadas nuestras suposiciones y pruebas anteriores. El posterior no es un número único, sino una distribución de probabilidad que cuantifica cualquier incertidumbre. Puede mostrar, por ejemplo, que la abiogénesis se vuelve más o menos probable con el tiempo en lugar de tener una distribución de probabilidad uniforme sugerida por el anterior.

En 2012, Turner y su colega David Spiegel, entonces en el Instituto de Estudios Avanzados en Princeton, Nueva Jersey, fueron los primeros en aplicar rigurosamente el análisis bayesiano a la abiogénesis. En su enfoque, la vida en un planeta similar a la Tierra alrededor de una estrella similar al Sol no emerge hasta un mínimo de años, tmin, después de esa formación world & rsquos. Si la vida no surge antes de un tiempo máximo, tmax, luego, a medida que su estrella envejece (y finalmente muere), las condiciones en el planeta se vuelven demasiado hostiles para que ocurra la abiogénesis. Entre tmin y tmax, Turner y Spiegel & rsquos intentaron calcular la probabilidad de abiogénesis.

Los investigadores trabajaron con algunas distribuciones previas diferentes para esta probabilidad. También asumieron que la inteligencia tardaba un tiempo fijo en aparecer después de la abiogénesis.

Dadas tales suposiciones, la evidencia geofísica y paleontológica de la vida y génesis rsquos en la Tierra y lo que dice la teoría evolutiva sobre el surgimiento de la vida inteligente, Turner y Spiegel pudieron calcular diferentes distribuciones de probabilidad posteriores para la abiogénesis. Aunque la evidencia de que la vida apareció temprano en la Tierra puede sugerir que la abiogénesis es bastante fácil, los posteriores no colocaron ningún límite inferior a la probabilidad. El cálculo & ldquoesn & rsquot descarta probabilidades muy bajas, lo cual es realmente una especie de sentido común con estadísticas de uno & rdquo Turner. A pesar de la rápida aparición de la vida en la Tierra, la abiogénesis podría ser un proceso extremadamente raro.

El esfuerzo de Turner y Spiegel & rsquos fue el "primer ataque bayesiano realmente serio a este problema", dice Kipping. "Creo que lo atractivo es que rompieron esta interpretación ingenua y predeterminada de la aparición temprana de la vida".

Aun así, Kipping pensó que el trabajo de los investigadores no estaba exento de debilidades, y ahora ha tratado de corregirlo con un análisis bayesiano más elaborado. Por ejemplo, Kipping cuestiona la suposición de que la inteligencia surgió en un momento determinado después de la abiogénesis. Este previo, dice, podría ser otro ejemplo de sesgo de selección y noción mdasha influenciada por la vía evolutiva por la que surgió nuestra propia inteligencia. "Con el espíritu de codificar toda tu ignorancia, ¿por qué no admitir que tú tampoco conoces ese número?", dice Kipping. & ldquoSi estás tratando de inferir cuánto tiempo tarda la vida en emerger, entonces ¿por qué no simplemente hacer inteligencia al mismo tiempo? & rdquo

Esa sugerencia es exactamente lo que intentó Kipping, estimando tanto la probabilidad de abiogénesis como el surgimiento de la inteligencia. Para un anterior, eligió algo llamado Jeffreys Prior, que fue diseñado por otro estadístico y astrónomo inglés, Harold Jeffreys. Se dice que es muy poco informativo. Debido a que el antecedente de Jeffreys no se basa en suposiciones masivas, le da más peso a la evidencia. Turner y Spiegel también habían tratado de encontrar un prior poco informativo. "Si quieres saber lo que te dicen los datos y no lo que pensaste antes, entonces quieres una información previa no informativa", dice Turner. En su análisis de 2012, los investigadores emplearon tres antecedentes, uno de los cuales fue el menos informativo, pero no llegaron a utilizar Jeffreys antes, a pesar de ser conscientes de ello.

En el cálculo de Kipping & rsquos, esa atención previa se centró en lo que él llama los & ldquofour esquinas & rdquo del espacio de parámetros: la vida es común, y la inteligencia es común, la vida es común y la inteligencia es rara, la vida es rara, y la inteligencia es común y la vida es rara, y la inteligencia es rara. Las cuatro esquinas eran igualmente probables antes de que comenzara el análisis bayesiano.

Turner está de acuerdo en que usar el Jeffreys anterior es un avance significativo. "Realmente, es la mejor manera que tenemos de preguntarnos qué están tratando de decirle los datos", dice.

Combinando el anterior de Jeffreys con la escasa evidencia del surgimiento y la inteligencia de la vida en la Tierra, Kipping obtuvo una distribución de probabilidad posterior, lo que le permitió calcular nuevas probabilidades para las cuatro esquinas. Descubrió, por ejemplo, que "la vida es común y la inteligencia es rara". El escenario es nueve veces más probable que la vida y la inteligencia son raras. E incluso si la inteligencia no es rara, el escenario de la vida es común tiene una razón de probabilidades mínima de 9 a 1. Esas probabilidades no son del tipo en el que uno apostaría la casa, dice Kipping. & ldquoPodrías perder fácilmente la apuesta. & rdquo

Aún así, ese cálculo es "una señal positiva de que la vida debería estar ahí", dice. & ldquoEs, al menos, una sugerente pista de que la vida no es un proceso difícil. & rdquo

No todos los estadísticos bayesianos estarían de acuerdo. Turner, por ejemplo, interpreta los resultados de manera diferente. Sí, el análisis de Kipping & rsquos sugiere que la aparente llegada temprana de vida & rsquos a la Tierra favorece un modelo en el que la abiogénesis es común, con una razón de probabilidades específica de 9: 1. Pero este cálculo no significa que el modelo tenga nueve veces más probabilidades de ser cierto que el que dice que la abiogénesis es rara, dice Turner, y agrega que la interpretación de Kipping & rsquos es & ldquoa un poco demasiado optimista & rdquo.

Según Turner, quien aplaude el trabajo de Kipping & rsquos, incluso el análisis bayesiano más sofisticado dejará espacio para la rareza de la vida y la inteligencia en el universo. "Lo que sabemos sobre la vida en la Tierra no descarta esas posibilidades", dice.

Y no son sólo los estadísticos bayesianos los que pueden tener problemas con la interpretación de Kipping & rsquos. Cualquiera que esté interesado en preguntas sobre el origen de la vida sería escéptico sobre las respuestas afirmadas, dado que cualquier análisis de este tipo está en deuda con la evidencia geológica, geofísica, paleontológica, arqueológica y biológica de la vida en la Tierra, y una de las cuales es inequívoca sobre las líneas de tiempo para la abiogénesis y la apariencia de inteligencia.

"Todavía nos cuesta definir qué entendemos por sistema vivo", dice Caleb Scharf, astrónomo y astrobiólogo de Columbia. & ldquoEs una bestia resbaladiza, en términos de definición científica. Eso es problemático para hacer una declaración [acerca de] cuándo ocurre la abiogénesis y hasta las declaraciones sobre la evolución de la inteligencia. & Rdquo

Si tuviéramos definiciones rigurosas, los problemas persisten. "No sabemos si la vida se inició, se detuvo o se reinició". Tampoco sabemos si la vida solo se puede construir de una manera o no ”, dice Scharf. ¿Cuándo se volvió la Tierra hospitalaria para la vida? Y cuando lo hizo, ¿las primeras moléculas de esta "vida" eran aminoácidos, ARN o membranas lipídicas? Y después de que la vida apareció por primera vez, ¿fue apagada por algún evento cataclísmico temprano en la historia de la Tierra y los rsquos, solo para reiniciar de una manera potencialmente diferente? "Hay mucha incertidumbre", dice Scharf.

Toda esta evidencia incompleta dificulta incluso el análisis bayesiano. Pero como técnica, sigue siendo el método mejor y más adecuado para manejar más evidencia, el descubrimiento de signos de vida existentes en Marte en el pasado o dentro de una de las lunas oceánicas cubiertas de hielo de Júpiter y rsquos en el presente.

& ldquoEn el momento en que tengamos otro punto de datos con el que jugar, suponiendo que eso suceda, [los modelos bayesianos] son ​​las formas de utilizar mejor esos datos adicionales. De repente, las incertidumbres se reducen drásticamente ”, dice Scharf. No necesariamente tenemos que examinar cada estrella de nuestra galaxia para averiguar qué tan probable es que un lugar determinado albergue vida. Uno o dos puntos de datos más, y de repente, conocemos, esencialmente, el universo en términos de su propensión a producir vida o posiblemente inteligencia. Y eso es bastante poderoso. & Rdquo


Estimaciones de la brecha fiscal para los años fiscales 2008-2010

Declaración del IRS sobre la actualización de la brecha fiscal

El IRS calcula periódicamente la brecha fiscal, lo que ofrece una visión amplia del cumplimiento de la nación con las leyes fiscales federales. El nuevo estudio cubre los años fiscales 2008-2010. El informe encuentra que no ha habido cambios significativos en el monto de la brecha fiscal o la tasa de cumplimiento desde que se emitió el último informe para el año fiscal 2006.

La brecha tributaria anual promedio para 2008-2010 se estima en $ 458 mil millones, en comparación con $ 450 mil millones para el año fiscal 2006. Las actividades de aplicación del IRS y los pagos atrasados ​​dieron como resultado $ 52 mil millones adicionales en impuestos pagados, reduciendo la brecha tributaria neta para el período 2008- Período de 2010 a $ 406 mil millones por año. La tasa de cumplimiento voluntario ahora se estima en 81,7 por ciento en comparación con la tasa estimada anterior de 83,1 por ciento. Después de contabilizar la ejecución y los pagos atrasados, la tasa neta de cumplimiento es del 83,7 por ciento.

El pequeño aumento en el tamaño estimado de la brecha fiscal y la pequeña disminución en la tasa de cumplimiento voluntario se atribuyen en gran medida a las mejoras en la metodología de estimación de la brecha fiscal y no representan un cambio significativo en el comportamiento subyacente de los contribuyentes. Los cambios también reflejan la disminución general de los ingresos fiscales de la nación debido a la severa recesión durante el período de tiempo cubierto por este estudio, así como los cambios en la combinación de fuentes de ingresos que tienen diferentes tasas de cumplimiento.

Un alto nivel de cumplimiento tributario voluntario sigue siendo fundamental para ayudar a garantizar la fe y la justicia del contribuyente en el sistema tributario. Aquellos que no pagan lo que deben, en última instancia, trasladan la carga fiscal a aquellos que cumplen adecuadamente con sus obligaciones fiscales. La nueva estimación de la brecha fiscal actualiza los hallazgos de investigaciones de larga data de que la presentación de información y la retención están fuertemente asociadas con niveles más altos de cumplimiento voluntario.

El IRS continúa buscando formas de mantener alta la tasa de cumplimiento voluntario, incluidos los esfuerzos educativos dirigidos a los preparadores y contribuyentes, los esfuerzos continuos para mejorar el cumplimiento en el ámbito de los impuestos internacionales y el trabajo con las empresas en cuestiones de impuestos sobre el empleo.


Contenido

Introducción Editar

La estimación por intervalos se puede contrastar con la estimación puntual. Una estimación puntual es un valor único dado como la estimación de un parámetro de población que es de interés, por ejemplo, la media de alguna cantidad. En cambio, una estimación de intervalo especifica un rango dentro del cual se estima que se encuentra el parámetro. Los intervalos de confianza se informan comúnmente en tablas o gráficos junto con estimaciones puntuales de los mismos parámetros, para mostrar la confiabilidad de las estimaciones.

Por ejemplo, se puede usar un intervalo de confianza para describir cuán confiables son los resultados de la encuesta.En una encuesta de intenciones electorales de voto, el resultado podría ser que el 40% de los encuestados tiene la intención de votar por un partido determinado. Un intervalo de confianza del 99% para la proporción de toda la población que tiene la misma intención en la encuesta podría ser del 30% al 50%. A partir de los mismos datos, se puede calcular un intervalo de confianza del 90%, que en este caso podría ser del 37% al 43%. Un factor importante que determina la duración de un intervalo de confianza es el tamaño de la muestra utilizada en el procedimiento de estimación, por ejemplo, el número de personas que participan en una encuesta.

Significado e interpretación Editar

Se pueden dar varias interpretaciones de un intervalo de confianza (tomando el intervalo de confianza del 90% como ejemplo a continuación).

  • El intervalo de confianza se puede expresar en términos de muestras (o muestras repetidas): "Si este procedimiento se repitiera en numerosas muestras, la fracción de los intervalos de confianza calculados (que diferirían para cada muestra) que abarcan el parámetro de población real tendería hacia el 90% ".[4]
  • El intervalo de confianza se puede expresar en términos de una sola muestra: "Hay un 90% de probabilidad de que el intervalo de confianza calculado de algún experimento futuro abarque el valor real del parámetro de población ". Tenga en cuenta que esta es una declaración de probabilidad sobre el intervalo de confianza, no el parámetro de población. Se considera la probabilidad asociada a un intervalo de confianza desde un punto de vista previo al experimento, en el mismo contexto en el que se formulan los argumentos para la asignación aleatoria de tratamientos a los ítems de estudio. Aquí, el experimentador establece la forma en que pretende calcular un intervalo de confianza y saber, antes de realizar el experimento real, que el intervalo que terminará calculando tiene una probabilidad particular de cubrir el valor verdadero pero desconocido. [5] Esto es muy similar a la interpretación de "muestra repetida" anterior, excepto que evita depender de considerar repeticiones hipotéticas de un procedimiento de muestreo que pueden no ser repetibles en ningún sentido significativo. Ver construcción de Neyman.
  • La explicación de un intervalo de confianza puede equivaler a algo como: "El intervalo de confianza representa valores para el parámetro de población para los cuales la diferencia entre el parámetro y la estimación observada no es estadísticamente significativa al nivel del 10%.[6] Esta interpretación es común en artículos científicos que utilizan intervalos de confianza para validar sus experimentos, aunque la dependencia excesiva de los intervalos de confianza también puede causar problemas.

En cada uno de los anteriores, se aplica lo siguiente: si el valor real del parámetro se encuentra fuera del intervalo de confianza del 90%, entonces se ha producido un evento de muestreo (es decir, obtener una estimación puntual del parámetro al menos tan lejos del valor real del parámetro ) que tenía una probabilidad del 10% (o menos) de ocurrir por casualidad.

Malentendidos Editar

Los intervalos y niveles de confianza son frecuentemente malinterpretados por la mayoría de los jóvenes académicos, y los estudios publicados han demostrado que incluso los científicos profesionales los malinterpretan a menudo. [7] [8] [9] [10] [11]

    Un nivel de confianza del 95% no significa que para un intervalo realizado dado existe una probabilidad del 95% de que el parámetro de población se encuentre dentro del intervalo (es decir, una probabilidad del 95% de que el intervalo cubra el parámetro de población). [12] Según la estricta interpretación frecuentista, una vez calculado un intervalo, este intervalo o cubre el valor del parámetro o no, deja de ser una cuestión de probabilidad. La probabilidad del 95% se relaciona con la confiabilidad del procedimiento de estimación, no con un intervalo calculado específico. [13] El propio Neyman (el proponente original de los intervalos de confianza) hizo este punto en su artículo original: [5]

"Se notará que en la descripción anterior, los enunciados de probabilidad se refieren a los problemas de estimación de los que se ocupará el estadístico en el futuro. De hecho, he afirmado repetidamente que la frecuencia de los resultados correctos tenderá a α. Considere ahora el caso en el que ya se extrajo una muestra y los cálculos han dado [límites particulares]. ¿Podemos decir que en este caso particular la probabilidad de que el valor verdadero [que se encuentre entre estos límites] es igual a α? La respuesta es obviamente negativa. El parámetro es una constante desconocida y no se puede hacer ninguna declaración de probabilidad con respecto a su valor. "

"Debe destacarse, sin embargo, que habiendo visto el valor [de los datos], la teoría de Neyman-Pearson nunca permite concluir que el intervalo de confianza específico formado cubre el verdadero valor de 0 con (1 - α) 100% de probabilidad o (1 - α) 100% de grado de confianza. La observación de Seidenfeld parece arraigada en un deseo (no infrecuente) de que los intervalos de confianza de Neyman-Pearson proporcionen algo que no pueden proporcionar legítimamente, a saber, una medida del grado de probabilidad, creencia o apoyo de que un valor de parámetro desconocido se encuentra en un intervalo específico. Siguiendo a Savage (1962), la probabilidad de que un parámetro se encuentre en un intervalo específico puede denominarse medida de precisión final. Si bien una medida de precisión final puede parecer deseable, y aunque los niveles de confianza a menudo se interpretan (erróneamente) como una medida de este tipo, no se justifica tal interpretación. Es cierto que la palabra 'confianza' fomenta esta mala interpretación ".

  • Un nivel de confianza del 95% no significa que el 95% de los datos de la muestra se encuentren dentro del intervalo de confianza.
  • Un intervalo de confianza no es un rango definitivo de valores plausibles para el parámetro de muestra, aunque puede entenderse como una estimación de valores plausibles para el parámetro de población.
  • Un nivel de confianza particular del 95% calculado a partir de un experimento no significa que haya una probabilidad del 95% de que un parámetro de muestra de una repetición del experimento caiga dentro de este intervalo. [11]

Historia Editar

Los intervalos de confianza fueron introducidos en las estadísticas por Jerzy Neyman en un artículo publicado en 1937. [15] Sin embargo, tomó bastante tiempo para que los intervalos de confianza se usaran de manera precisa y rutinaria.

En el primer ensayo clínico controlado moderno de un tratamiento médico para el accidente cerebrovascular agudo, publicado por Dyken y White en 1959, los investigadores no pudieron rechazar la hipótesis nula de que el cortisol no tiene ningún efecto sobre el accidente cerebrovascular. No obstante, llegaron a la conclusión de que su ensayo "indicaba claramente que no había ninguna ventaja posible del tratamiento con cortisona". Dyken y White no calcularon los intervalos de confianza, que eran raros en ese momento en medicina. Cuando Peter Sandercock reevaluó los datos en 2015, descubrió que el intervalo de confianza del 95% se extendía desde una reducción del riesgo del 12% hasta un aumento del riesgo del 140%. Por lo tanto, la afirmación de los autores no fue respaldada por su experimento. Sandercock concluyó que, especialmente en las ciencias médicas, donde los conjuntos de datos pueden ser pequeños, los intervalos de confianza son mejores que las pruebas de hipótesis para cuantificar la incertidumbre en torno al tamaño y la dirección de un efecto. [dieciséis]

No fue hasta la década de 1980 que las revistas requirieron que los intervalos de confianza y los valores p se informaran en los artículos. En 1992, las estimaciones imprecisas todavía eran comunes, incluso para ensayos grandes. Esto impidió una decisión clara sobre la hipótesis nula. Por ejemplo, un estudio de terapias médicas para el accidente cerebrovascular agudo llegó a la conclusión de que los tratamientos para el accidente cerebrovascular podrían reducir la mortalidad o aumentarla entre un 10% y un 20%. La estricta admisión al estudio introdujo un error imprevisto, lo que aumentó aún más la incertidumbre en la conclusión. Los estudios persistieron, y no fue hasta 1997 que un ensayo con un grupo de muestras masivo e intervalo de confianza aceptable pudo proporcionar una respuesta definitiva: la terapia con cortisol no reduce el riesgo de accidente cerebrovascular agudo. [dieciséis]

Problemas filosóficos Editar

El principio detrás de los intervalos de confianza se formuló para dar una respuesta a la pregunta planteada en la inferencia estadística de cómo lidiar con la incertidumbre inherente a los resultados derivados de datos que son en sí mismos solo un subconjunto seleccionado al azar de una población. Hay otras respuestas, en particular la proporcionada por la inferencia bayesiana en forma de intervalos creíbles. Los intervalos de confianza corresponden a una regla elegida para determinar los límites de confianza, donde esta regla se determina esencialmente antes de que se obtengan los datos o antes de realizar un experimento. La regla se define de tal manera que sobre todos los conjuntos de datos posibles que se pueden obtener, existe una alta probabilidad ("alta" se cuantifica específicamente) de que el intervalo determinado por la regla incluya el valor real de la cantidad en consideración. El enfoque bayesiano parece ofrecer intervalos que pueden, sujeto a la aceptación de una interpretación de "probabilidad" como probabilidad bayesiana, ser interpretados en el sentido de que el intervalo específico calculado a partir de un conjunto de datos dado tiene una probabilidad particular de incluir el valor verdadero, condicionado a la datos y otra información disponible. El enfoque del intervalo de confianza no permite esto ya que en esta formulación y en esta misma etapa, tanto los límites del intervalo como los valores verdaderos son valores fijos y no hay aleatoriedad involucrada. Por otro lado, el enfoque bayesiano solo es tan válido como la probabilidad previa utilizada en el cálculo, mientras que el intervalo de confianza no depende de supuestos sobre la probabilidad previa.

Las cuestiones relativas a cómo podría formularse un intervalo que expresa incertidumbre en una estimación, y cómo podrían interpretarse tales intervalos, no son problemas estrictamente matemáticos y son filosóficamente problemáticos. [17] Las matemáticas pueden asumir el control una vez que se han establecido los principios básicos de un enfoque de 'inferencia', pero solo tiene un papel limitado a la hora de decir por qué se debe preferir un enfoque a otro: por ejemplo, un nivel de confianza del 95% es se utiliza a menudo en las ciencias biológicas, pero esto es una cuestión de convención o arbitraje. En las ciencias físicas, se puede utilizar un nivel mucho más alto. [18]

Relación con otros temas estadísticos Editar

Prueba de hipótesis estadística Editar

Los intervalos de confianza están estrechamente relacionados con las pruebas de significación estadística. Por ejemplo, si para algún parámetro estimado θ uno quiere probar la hipótesis nula de que θ = 0 contra la alternativa que θ ≠ 0, entonces esta prueba se puede realizar determinando si el intervalo de confianza para θ contiene 0.

De manera más general, dada la disponibilidad de un procedimiento de prueba de hipótesis que puede probar la hipótesis nula θ = θ0 contra la alternativa que θθ0 por cualquier valor de θ0, luego un intervalo de confianza con nivel de confianza γ = 1 − α puede definirse como conteniendo cualquier número θ0 para el cual la hipótesis nula correspondiente no se rechaza a nivel de significancia α. [19]

Si las estimaciones de dos parámetros (por ejemplo, los valores medios de una variable en dos grupos independientes) tienen intervalos de confianza que no se superponen, entonces la diferencia entre los dos valores es más significativa que la indicada por los valores individuales de α. [20] Por lo tanto, esta "prueba" es demasiado conservadora y puede conducir a un resultado que sea más significativo que los valores individuales de α indicaría. Si dos intervalos de confianza se superponen, las dos medias aún pueden ser significativamente diferentes. [21] [22] [23] En consecuencia, y consistente con la prueba Chi-cuadrado de Mantel-Haenszel, es una solución propuesta por la cual uno reduce los límites de error para las dos medias multiplicándolos por la raíz cuadrada de ½ (0.707107) antes haciendo la comparación. [24]

Si bien las formulaciones de las nociones de intervalos de confianza y de prueba de hipótesis estadísticas son distintas, en cierto sentido están relacionadas y hasta cierto punto son complementarias. Si bien no todos los intervalos de confianza se construyen de esta manera, un enfoque de propósito general para construir intervalos de confianza es definir un 100 (1 - α)% de intervalo de confianza que consta de todos esos valores θ0 para lo cual una prueba de la hipótesis θ = θ0 no se rechaza a un nivel de significancia del 100α%. Es posible que este enfoque no siempre esté disponible, ya que presupone la disponibilidad práctica de una prueba de significación adecuada. Naturalmente, cualquier supuesto requerido para la prueba de significancia se trasladaría a los intervalos de confianza.

Puede ser conveniente hacer la correspondencia general de que los valores de los parámetros dentro de un intervalo de confianza son equivalentes a aquellos valores que no serían rechazados por una prueba de hipótesis, pero esto sería peligroso. En muchos casos, los intervalos de confianza que se citan son sólo aproximadamente válidos, quizás derivados de "más o menos el doble del error estándar", y las implicaciones de esto para las pruebas de hipótesis supuestamente correspondientes suelen ser desconocidas.

Vale la pena señalar que el intervalo de confianza para un parámetro no es el mismo que la región de aceptación de una prueba para este parámetro, como a veces se piensa. El intervalo de confianza es parte del espacio de parámetros, mientras que la región de aceptación es parte del espacio muestral. Por la misma razón, el nivel de confianza no es lo mismo que la probabilidad complementaria del nivel de significancia. [ se necesita más explicación ]

Región de confianza Editar

Las regiones de confianza generalizan el concepto de intervalo de confianza para tratar con múltiples cantidades. Estas regiones pueden indicar no solo el alcance de los probables errores de muestreo, sino que también pueden revelar si (por ejemplo) se da el caso de que si la estimación de una cantidad no es confiable, es probable que la otra tampoco sea confiable.

Banda de confianza Editar

Una banda de confianza se utiliza en análisis estadístico para representar la incertidumbre en una estimación de una curva o función basada en datos limitados o ruidosos. Del mismo modo, un banda de predicción se utiliza para representar la incertidumbre sobre el valor de un nuevo punto de datos en la curva, pero sujeto a ruido. Las bandas de confianza y predicción se utilizan a menudo como parte de la presentación gráfica de los resultados de un análisis de regresión.

Las bandas de confianza están estrechamente relacionadas con los intervalos de confianza, que representan la incertidumbre en una estimación de un solo valor numérico. "Como los intervalos de confianza, por construcción, solo se refieren a un único punto, son más estrechos (en este punto) que una banda de confianza que se supone que se mantiene simultáneamente en muchos puntos". [25]

Este ejemplo asume que las muestras se extraen de una distribución normal. El procedimiento básico para calcular un intervalo de confianza para una media poblacional es el siguiente:

  1. Identifica la media de la muestra, x ¯ < displaystyle < bar >> .
  2. Identifica si se conoce la desviación estándar de la población, σ < displaystyle sigma>, o se desconoce y se estima mediante la desviación estándar de la muestra s < displaystyle s>.
    • Si se conoce la desviación estándar de la población, entonces z ∗ = Φ - 1 (1 - α 2) = - Φ - 1 (α 2) < textstyle z ^ <*> = Phi ^ <-1> left (1- < frac < alpha> <2>> right) = - Phi ^ <-1> left (< frac < alpha> <2>> right)>, donde C = 100 (1 - α )% < displaystyle C = 100 (1- alpha) \%> es el nivel de confianza y Φ < displaystyle Phi> es el CDF de la distribución normal estándar, que se utiliza como valor crítico. Este valor solo depende del nivel de confianza de la prueba. Los niveles de confianza bilaterales típicos son: [26]
      Cz *
      99%2.576
      98%2.326
      95%1.96
      90%1.645
    • Si se desconoce la desviación estándar de la población, entonces la t la distribución se utiliza como valor crítico. Este valor depende del nivel de confianza (C) para la prueba y los grados de libertad. Los grados de libertad se obtienen restando uno del número de observaciones, norte - 1. El valor crítico se encuentra en la tabla de distribución t. En esta tabla, el valor crítico se escribe como t ∗ = t α (r) < displaystyle t ^ <*> = t _ < alpha> (r)>, donde r < displaystyle r> son los grados de libertad y α = 1 - C 2 < textstyle alpha = <1-C over 2 >>.
  3. Sustituya los valores encontrados en las ecuaciones apropiadas:
    • Para una desviación estándar conocida: (x ¯ - z ∗ σ n, x ¯ + z ∗ σ n) < displaystyle left (< bar > -z ^ <*> < sigma over < sqrt >>, < bar > + z ^ <*> < sigma over < sqrt >> derecha)>
    • Para una desviación estándar desconocida: (x ¯ - t ∗ s n, x ¯ + t ∗ s n) < displaystyle left (< bar > -t ^ <*>>>, < bar > + t ^ <*>>> derecha)> [27]

Importancia de las tablas t y tablas z Editar

Los intervalos de confianza se pueden calcular utilizando dos valores diferentes: valores t o valores z, como se muestra en el ejemplo básico anterior. Ambos valores se tabulan en tablas, según los grados de libertad y la cola de una distribución de probabilidad. Más a menudo, se utilizan valores z. Estos son los valores críticos de la distribución normal con probabilidad de cola derecha. Sin embargo, los valores t se utilizan cuando el tamaño de la muestra es inferior a 30 y se desconoce la desviación estándar. [1] [28]

Edición de ejemplo

  1. Encuentre los grados de libertad (gl) a partir del tamaño de la muestra: si el tamaño de la muestra = 10, gl = 9.
  2. Reste el intervalo de confianza (CL) de 1 y luego divídalo por dos. Este valor es el nivel alfa. (alfa + CL = 1)
  3. Busque df y alpha en la tabla de distribución t. Para df = 9 y alpha = 0.01, la tabla da un valor de 2.821. Este valor obtenido de la tabla es el t-score.

Definición Editar

Dejar X ser una muestra aleatoria de una distribución de probabilidad con parámetro estadístico θ, que es una cantidad a estimar, y φ, que representan cantidades que no son de interés inmediato. A intervalo de confianza para el parámetro θ, con nivel de confianza o coeficiente de confianza γ, es un intervalo con puntos finales aleatorios (tu(X), v(X)), determinada por el par de variables aleatorias tu(X) y v(X), con la propiedad:

Las cantidades φ en los que no existe un interés inmediato se denominan parámetros de molestia, ya que la teoría estadística aún necesita encontrar alguna forma de abordarlos. El número γ, con valores típicos cercanos pero no mayores que 1, a veces se da en la forma 1 - α (o como porcentaje 100% · (1 - α)), dónde α es un número pequeño no negativo, cercano a 0.

Aquí Prθ,φ indica la distribución de probabilidad de X caracterizado por (θ, φ). Una parte importante de esta especificación es que el intervalo aleatorio (tu(X), v(X)) cubre el valor desconocido θ con una alta probabilidad sin importar cuál sea el verdadero valor de θ en realidad es.

Tenga en cuenta que aquí Prθ,φ no necesita referirse a una familia de distribuciones parametrizada dada explícitamente, aunque a menudo lo hace. Al igual que la variable aleatoria X teóricamente corresponde a otras posibles realizaciones de X de la misma población o de la misma versión de la realidad, los parámetros (θ, φ) indican que debemos considerar otras versiones de la realidad en las que la distribución de X puede tener diferentes características.

En una situación específica, cuando X es el resultado de la muestra X, el intervalo (tu(X), v(X)) también se denomina intervalo de confianza para θ. Tenga en cuenta que ya no es posible decir que el intervalo (observado) (tu(X), v(X)) tiene probabilidad γ para contener el parámetro θ. Este intervalo observado es solo una realización de todos los intervalos posibles para los que se cumple el enunciado de probabilidad.

Intervalos de confianza aproximados Editar

En muchas aplicaciones, los intervalos de confianza que tienen exactamente el nivel de confianza requerido son difíciles de construir. Pero todavía se pueden encontrar intervalos prácticamente útiles: la regla para construir el intervalo puede aceptarse como que proporciona un intervalo de confianza en el nivel γ < displaystyle gamma> si

a un nivel aceptable de aproximación. Alternativamente, algunos autores [30] simplemente requieren que

lo cual es útil si las probabilidades están solo parcialmente identificadas o son imprecisas, y también cuando se trata de distribuciones discretas. Límites de confianza de la forma Pr θ, ϕ (u (X) & lt θ) ≥ γ < displaystyle < Pr> _ < theta, phi> (u (X) & lt theta) geq gamma> y Pr θ , ϕ (θ & lt v (X)) ≥ γ < displaystyle < Pr> _ < theta, phi> ( theta & ltv (X)) geq gamma> se llaman conservador [31] en consecuencia, se habla de intervalos de confianza conservadores y, en general, de regiones.

Propiedades deseables Editar

Al aplicar procedimientos estadísticos estándar, a menudo habrá formas estándar de construir intervalos de confianza. Estos se habrán ideado para cumplir ciertas propiedades deseables, que se mantendrán dado que las suposiciones en las que se basa el procedimiento son verdaderas. Estas propiedades deseables pueden describirse como: validez, optimización e invariancia. De estos, la "validez" es la más importante, seguida de cerca por la "optimización". La "invarianza" se puede considerar como una propiedad del método de derivación de un intervalo de confianza más que como una propiedad de la regla para construir el intervalo. En aplicaciones no estándar, se buscarían las mismas propiedades deseables.

  • Validez. Esto significa que la probabilidad de cobertura nominal (nivel de confianza) del intervalo de confianza debe mantenerse, ya sea exactamente o con una buena aproximación.
  • Optimidad. Esto significa que la regla para construir el intervalo de confianza debe hacer el mayor uso posible de la información del conjunto de datos. Recuerde que uno podría desechar la mitad de un conjunto de datos y aún así poder derivar un intervalo de confianza válido. Una forma de evaluar la optimalidad es por la longitud del intervalo, de modo que una regla para construir un intervalo de confianza se juzgue mejor que otra si conduce a intervalos cuyas longitudes suelen ser más cortas.
  • Invarianza. En muchas aplicaciones, es posible que la cantidad estimada no se defina exactamente como tal. Por ejemplo, una encuesta puede dar como resultado una estimación del ingreso medio de una población, pero también puede considerarse que proporciona una estimación del logaritmo del ingreso medio, dado que se trata de una escala común para presentar resultados gráficos. Sería deseable que el método utilizado para construir un intervalo de confianza para el ingreso mediano arrojara resultados equivalentes cuando se aplicara a la construcción de un intervalo de confianza para el logaritmo del ingreso mediano: específicamente, los valores en los extremos del último intervalo serían los logaritmos de los valores al final del intervalo anterior.

Métodos de derivación Editar

Para aplicaciones no estándar, existen varias rutas que se pueden tomar para derivar una regla para la construcción de intervalos de confianza. Las reglas establecidas para los procedimientos estándar pueden justificarse o explicarse a través de varias de estas rutas. Por lo general, una regla para construir intervalos de confianza está estrechamente relacionada con una forma particular de encontrar una estimación puntual de la cantidad que se está considerando.

Estadísticos de resumen Está estrechamente relacionado con el método de los momentos para la estimación. Surge un ejemplo simple donde la cantidad a estimar es la media, en cuyo caso una estimación natural es la media muestral. Los argumentos habituales indican que la varianza muestral se puede utilizar para estimar la varianza de la media muestral. Se puede construir un intervalo de confianza para la media verdadera centrado en la media muestral con un ancho que es un múltiplo de la raíz cuadrada de la varianza muestral. Teoría de verosimilitud Cuando las estimaciones se construyen utilizando el principio de máxima verosimilitud, la teoría para esto proporciona dos formas de construir intervalos de confianza o regiones de confianza para las estimaciones. Una forma es usar el teorema de Wilks para encontrar todos los valores posibles de θ < displaystyle theta> que cumplan con la siguiente restricción: [32] ln ⁡ (L (θ)) ≥ ln ⁡ (L (θ ^)) - 1 2 χ 1, 1 - α 2 < Displaystyle ln (L ( theta)) geq ln (L (< hat < theta >>)) - < frac <1> <2>> chi _ <1,1- alpha> ^ <2>> Estimación de ecuaciones El método de estimación aquí puede considerarse como una generalización del método de momentos y una generalización del método de máxima verosimilitud. Existen generalizaciones correspondientes de los resultados de la teoría de máxima verosimilitud que permiten construir intervalos de confianza basados ​​en estimaciones derivadas de ecuaciones de estimación. [ aclaración necesaria ] Prueba de hipótesis Si hay pruebas de significancia disponibles para los valores generales de un parámetro, entonces los intervalos / regiones de confianza se pueden construir incluyendo en el 100pag% región de confianza todos aquellos puntos para los cuales la prueba de significancia de la hipótesis nula de que el valor verdadero es el valor dado no se rechaza a un nivel de significancia de (1 - pag). [19] Bootstrapping En situaciones donde los supuestos de distribución para los métodos anteriores son inciertos o violados, los métodos de remuestreo permiten la construcción de intervalos de confianza o intervalos de predicción. La distribución de datos observada y las correlaciones internas se utilizan como sustituto de las correlaciones en la población en general.

Ejemplos médicos Editar

La investigación médica a menudo estima los efectos de una intervención o exposición en una determinada población. [33] Por lo general, los investigadores han determinado la importancia de los efectos basándose en el valor p; sin embargo, recientemente ha habido un impulso para obtener más información estadística con el fin de proporcionar una base más sólida para las estimaciones. [33] Una forma de resolver este problema también es exigir el informe del intervalo de confianza. A continuación, se muestran dos ejemplos de cómo se utilizan y se informan los intervalos de confianza para la investigación.

En un estudio de 2004, Briton y sus colegas llevaron a cabo un estudio sobre la evaluación de la relación entre la infertilidad y el cáncer de ovario. Se informó la razón de incidencia de 1,98 para un intervalo de confianza (IC) del 95% con un rango de razón de 1,4 a 2,6. [34] La estadística se informó de la siguiente manera en el documento: "(índice de incidencia estandarizado = 1,98 IC del 95%, 1,4-2,6)". [34] Esto significa que, según la muestra estudiada, las mujeres infértiles tienen una incidencia de cáncer de ovario que es 1,98 veces mayor que las mujeres no infértiles. Además, también significa que tenemos un 95% de confianza en que la verdadera tasa de incidencia en toda la población femenina infértil se encuentra en el rango de 1,4 a 2,6. [34] En general, el intervalo de confianza proporcionó más información estadística en el sentido de que informó los efectos más bajos y más grandes que es probable que ocurran para la variable estudiada, al mismo tiempo que proporciona información sobre la importancia de los efectos observados. [33]

En un estudio de 2018, se entendió la prevalencia y la carga de enfermedad de la dermatitis atópica en la población adulta de EE. UU. Con el uso de intervalos de confianza del 95%. [35] Se informó que entre 1278 adultos participantes, la prevalencia de dermatitis atópica fue de 7,3% (5,9 a 8,8). [35] Además, el 60,1% (56,1–64,1) de los participantes se clasificó como con dermatitis atópica leve, mientras que el 28,9% (25,3–32,7) tenía moderada y el 11% (8,6–13,7) tenía grave. [35] El estudio confirmó que existe una alta prevalencia y carga de enfermedad de la dermatitis atópica en la población.

Ejemplo teórico Editar

Supongamos <X1, …, Xnorte> es una muestra independiente de una población distribuida normalmente con una media desconocida (parámetros) μ y varianza σ 2. Dejar

Dónde X es la media muestral, y S 2 es la varianza de la muestra. Luego

tiene un estudiante t distribución con norte - 1 grado de libertad. [36] Tenga en cuenta que la distribución de T no depende de los valores de los parámetros no observables μ y σ 2 es decir, es una cantidad fundamental. Suponga que queremos calcular un intervalo de confianza del 95% para μ. Entonces, denotando C como el percentil 97.5 de esta distribución,

y tenemos un intervalo de confianza teórico (estocástico) del 95% para μ.

Después de observar la muestra encontramos valores X por X y s por S, a partir del cual calculamos el intervalo de confianza

un intervalo con números fijos como puntos finales, del cual ya no podemos decir que hay una cierta probabilidad de que contenga el parámetro μ ya sea μ está en este intervalo o no lo está.

Los intervalos de confianza son un método de estimación de intervalos y el más utilizado en las estadísticas frecuentistas. Un concepto análogo en la estadística bayesiana es el de intervalos creíbles, mientras que un método frecuentista alternativo es el de intervalos de predicción que, en lugar de estimar parámetros, estimar el resultado de futuro muestras. Para conocer otros enfoques para expresar la incertidumbre mediante intervalos, consulte estimación de intervalo.

Comparación con los intervalos de predicción Editar

Un intervalo de predicción para una variable aleatoria se define de manera similar a un intervalo de confianza para un parámetro estadístico. Considere una variable aleatoria adicional Y que puede o no depender estadísticamente de la muestra aleatoria X. Luego (tu(X), v(X)) proporciona un intervalo de predicción para el valor aún por observar y de Y Si

Aquí Prθ,φ indica la distribución de probabilidad conjunta de las variables aleatorias (X, Y), donde esta distribución depende de los parámetros estadísticos (θ, φ).

Comparación con estimaciones de intervalo bayesiano Editar

Una estimación de intervalo bayesiano se denomina intervalo creíble. Usando gran parte de la misma notación anterior, la definición de un intervalo creíble para el valor verdadero desconocido de θ es, por un hecho γ, [37]

Pr (u (x) & lt Θ & lt v (x) ∣ X = x) = γ.

Aquí Θ se usa para enfatizar que el valor desconocido de θ se trata como una variable aleatoria. Las definiciones de los dos tipos de intervalos se pueden comparar de la siguiente manera.

  • La definición de un intervalo de confianza involucra probabilidades calculadas a partir de la distribución de X para una dada (θ, φ) (o condicionado a estos valores) y la condición debe cumplirse para todos los valores de (θ, φ).
  • La definición de un intervalo creíble involucra probabilidades calculadas a partir de la distribución de Θ condicionada a los valores observados de X = X y marginado (o promediado) sobre los valores de Φ, donde esta última cantidad es la variable aleatoria correspondiente a la incertidumbre sobre los parámetros de molestia en φ.

Tenga en cuenta que el tratamiento de los parámetros de molestia anteriores a menudo se omite en las discusiones que comparan la confianza y los intervalos creíbles, pero es marcadamente diferente entre los dos casos.

En algunos casos, un intervalo de confianza y un intervalo creíble calculados para un parámetro dado utilizando un conjunto de datos dado son idénticos. Pero en otros casos, los dos pueden ser muy diferentes, particularmente si se incluye información previa informativa en el análisis bayesiano.

Existe un desacuerdo sobre cuál de estos métodos produce los resultados más útiles: las matemáticas de los cálculos rara vez se cuestionan (los intervalos de confianza se basan en distribuciones de muestreo, los intervalos creíbles se basan en el teorema de Bayes), pero la aplicación de estos métodos, la utilidad e interpretación de las estadísticas producidas.

Intervalos de confianza para proporciones y cantidades relacionadas Editar

Se puede construir un intervalo de confianza aproximado para una media poblacional para variables aleatorias que no se distribuyen normalmente en la población, basándose en el teorema del límite central, si los tamaños de muestra y los recuentos son lo suficientemente grandes. Las fórmulas son idénticas al caso anterior (donde la media de la muestra en realidad se distribuye normalmente alrededor de la media de la población). La aproximación será bastante buena con solo unas pocas docenas de observaciones en la muestra si la distribución de probabilidad de la variable aleatoria no es demasiado diferente de la distribución normal (por ejemplo, su función de distribución acumulada no tiene discontinuidades y su asimetría es moderada).

Un tipo de media muestral es la media de una variable indicadora, que toma el valor 1 para verdadero y el valor 0 para falso. La media de dicha variable es igual a la proporción que tiene la variable igual a uno (tanto en la población como en cualquier muestra). Esta es una propiedad útil de las variables indicadoras, especialmente para la prueba de hipótesis. Para aplicar el teorema del límite central, se debe usar una muestra lo suficientemente grande. Una regla general es que se deben ver al menos 5 casos en los que el indicador es 1 y al menos 5 en los que es 0. Los intervalos de confianza construidos usando las fórmulas anteriores pueden incluir números negativos o números mayores que 1, pero obviamente proporciones no puede ser negativo ni exceder 1. Además, las proporciones muestrales solo pueden tomar un número finito de valores, por lo que el teorema del límite central y la distribución normal no son las mejores herramientas para construir un intervalo de confianza. Consulte "Intervalo de confianza de la proporción binomial" para obtener mejores métodos específicos para este caso.

Contraejemplos Editar

Desde que se propuso la teoría del intervalo de confianza, se han desarrollado varios contraejemplos a la teoría para mostrar cómo la interpretación de los intervalos de confianza puede ser problemática, al menos si uno los interpreta ingenuamente.

Procedimiento de confianza para una ubicación uniforme Editar

Welch [38] presentó un ejemplo que muestra claramente la diferencia entre la teoría de los intervalos de confianza y otras teorías de la estimación de intervalos (incluidos los intervalos fiduciales de Fisher y los intervalos bayesianos objetivos). Robinson [39] llamó a este ejemplo "[posiblemente] el contraejemplo más conocido de la versión de Neyman de la teoría del intervalo de confianza". Para Welch, mostró la superioridad de la teoría del intervalo de confianza a los críticos de la teoría, muestra una deficiencia. A continuación presentamos una versión simplificada.

Suponga que X 1, X 2 < displaystyle X_ <1>, X_ <2>> son observaciones independientes de un Uniforme (θ − 1/2, θ + 1/2) distribución. Entonces, el procedimiento óptimo de confianza del 50% [40] es

Se puede usar un argumento bayesiano fiducial u objetivo para derivar la estimación del intervalo

Este contraejemplo se utiliza para argumentar en contra de interpretaciones ingenuas de los intervalos de confianza. Si se afirma que un procedimiento de confianza tiene propiedades más allá de la cobertura nominal (como una relación con la precisión o una relación con la inferencia bayesiana), se debe demostrar que esas propiedades no se siguen del hecho de que un procedimiento es un procedimiento de confianza.

Procedimiento de confianza para ω 2 Editar

Steiger [41] sugirió varios procedimientos de confianza para medidas de tamaño del efecto comunes en ANOVA. Morey y col. [12] señalan que varios de estos procedimientos de confianza, incluido el de ω 2, tiene la propiedad de que como F La estadística se vuelve cada vez más pequeña, lo que indica un desajuste con todos los valores posibles de ω 2: el intervalo de confianza se reduce e incluso puede contener solo un valor ω 2 = 0, es decir, el IC es infinitesimalmente estrecho (esto ocurre cuando p ≥ 1 - α / 2 < displaystyle p geq 1- alpha / 2> para un 100 (1 - α)% < displaystyle 100 (1 - alpha) \%> CI).

Este comportamiento es consistente con la relación entre el procedimiento de confianza y la prueba de significancia: como F se vuelve tan pequeño que las medias del grupo están mucho más juntas de lo que esperaríamos por casualidad, una prueba de significancia podría indicar rechazo para la mayoría o todos los valores de ω 2. Por lo tanto, el intervalo será muy estrecho o incluso vacío (o, según una convención sugerida por Steiger, contendrá solo 0). Sin embargo, esto no indican que la estimación de ω 2 es muy preciso. En cierto sentido, indica lo contrario: que la confiabilidad de los resultados mismos puede estar en duda. Esto es contrario a la interpretación común de los intervalos de confianza de que revelan la precisión de la estimación.


¿Rehacer la carrera espacial?

& quot; Cualquiera que desee rehacer el 'Carrera espacial' de la década de 1960 entre la Unión Soviética y los Estados Unidos en la escena internacional de SETI de hoy se va a decepcionar.

En SETI, la cooperación internacional gana a la competencia ”, dijo Douglas Vakoch, presidente de METI International en San Francisco.

En última instancia, la clave para confirmar el primer contacto, Douglas Vakoch dijo, se encuentra en una colección de platos separados geográficamente con sofisticadas capacidades de procesamiento de señales para detectar transmisiones de civilizaciones avanzadas.

& quot; En momentos como este, cuando vemos el coronavirus Al ser re-etiquetado como el 'virus chino' por impacto político, debemos evitar atribuir intenciones clandestinas a los científicos de SETI de cualquier nacionalidad ”, dijo Vakoch.

"Los astrónomos de cualquier país se sentirían especialmente orgullosos de ser los primeros científicos en detectar extraterrestres inteligentes, pero los astrónomos que insisten en hacerlo solos sin el apoyo de colegas de otros países se arriesgan a perder la confirmación de su descubrimiento".

Las búsquedas SETI tienen el potencial de detectar

si la vecina galaxia de Andrómeda M31

alberga cualquier civilización tecnológica avanzada.

(Crédito de la imagen: Miguel Claro)


Ponerse en contacto con colegas

Los científicos de SETI que están rastreando señales prometedoras provenientes de la vecindad de otra estrella quieren mantener las observaciones incluso después de que la estrella se ponga en su observatorio, señaló Vakoch.

"Eso significa ponerse en contacto con colegas que pueden comenzar a observar cuándo se eleva la estrella en su ubicación. En el mejor de los casos, los observatorios de todo el mundo están rastreando las señales las 24 horas del día, los 7 días de la semana, idealmente desde varios sitios al mismo tiempo", dijo.

Vakoch dijo que, a medida que China implemente su encuesta FAST de radioastronomía comensal (CRAFTS), la nación estará atenta a fenómenos tan diferentes como ráfagas de radio rápidas, púlsares y & mdash con capacidades mejoradas de procesamiento de señales & mdash señales claramente artificiales de inteligencia extraterrestre.

"A menos que pueda observar las mismas señales provenientes del espacio en dos lugares de la Tierra, utilizando observatorios independientes, es difícil descartar que la señal sea causada por una falla técnica que ocurre en un solo sitio", dijo Vakoch. "Y una señal interesante que aparece sin previo aviso durante un estudio de transitorios podría desaparecer con la misma rapidez, por lo que hay presión para localizar su fuente y determinar si tiene las características de una señal de un civilización alienígena."


3.4. Desviación estándar de la media

Breve resumen: Al igual que los valores individuales, el valor medio calculado a partir de ellos también es una cantidad aleatoria y para ello también se puede calcular una desviación estándar. Es posible calcularlo a partir de la desviación estándar del valor individual. Se explica cuándo usar la desviación estándar del valor individual y cuándo usar la desviación estándar de la media: siempre que el resultado individual se use en cálculos posteriores, la desviación estándar del resultado individual debe usarse siempre que se use el valor medio en cálculos posteriores, se debe utilizar la desviación estándar de la media.

Desviación estándar de la mediahttp://www.uttv.ee/naita?id= 17580

La desviación estándar s (V ) calculado usando la fórmula 3.3 es la desviación estándar de un individual resultado de pipeteo (valor). Cuando el valor medio se calcula a partir de un conjunto de valores individuales distribuidos aleatoriamente, el valor medio también será una cantidad aleatoria. Como para cualquier cantidad aleatoria, también es posible calcular la desviación estándar para la media s (Vmetro ). Una forma posible de hacerlo sería realizar numerosas series de medidas, encontrar la media de cada serie y luego calcular la desviación estándar de todos los valores medios obtenidos. Sin embargo, esto requiere demasiado trabajo. Sin embargo, existe un enfoque mucho más simple para calcular s (Vmetro ), simplemente divida el s (V ) por la raíz cuadrada del número de mediciones repetidas realizadas:

(3.5)

Entonces, para un conjunto de valores de pipeteo repetidos, tenemos de hecho dos desviaciones estándar: desviación estándar del valor único s (V ) y desviación estándar de la media s (Vmetro ). Es importante preguntarse: ¿cuándo usamos uno y cuándo otro de ellos?

La regla general es la siguiente: cuando el valor medido informado o utilizado en cálculos posteriores es un valor único, usamos la desviación estándar del valor único cuando es el valor medio, luego usamos la desviación estándar de la media.

Ilustremos esto con dos ejemplos:

  1. Pipeteo. Cuando suministramos un cierto volumen con una pipeta, el pipeteo es una operación de una sola vez: no podemos repetir el pipeteo con la misma cantidad de líquido. Por tanto, utilizamos la desviación estándar del pipeteo único como incertidumbre de repetibilidad del pipeteo.
  2. Peso. Cuando pesamos una cierta cantidad de un material, podemos pesarlo repetidamente. Entonces, si necesitamos minimizar la influencia de la repetibilidad del pesaje en nuestra medición, podemos pesar el material repetidamente y usar en nuestros cálculos la masa media. En este caso, la desviación estándar de repetibilidad de esta masa media es la desviación estándar de la media. Si, por otro lado, no es muy importante tener la incertidumbre de repetibilidad de masa más baja posible, entonces pesamos solo una vez y usamos el valor de masa del pesaje único y como su incertidumbre de repetibilidad usaremos la desviación estándar de un valor único. . [1] Como veremos más adelante, las balanzas modernas son instrumentos muy precisos y la incertidumbre debida al pesaje rara vez se encuentra entre las fuentes importantes de incertidumbre. Por lo tanto, a menos que algunos efectos perturbadores interfieran con el pesaje, generalmente no es necesario pesar materiales con muchas repeticiones.

En el caso de pipeteo o pesaje único, la incertidumbre de repetibilidad, por supuesto, no puede estimarse a partir de esta operación única. En estos casos, la repetibilidad se determina por separado y luego se utiliza para las mediciones del hormigón.

***
[1] Como veremos más adelante, las balanzas modernas son instrumentos muy precisos y la incertidumbre debida al pesaje rara vez se encuentra entre las fuentes importantes de incertidumbre. Por lo tanto, a menos que algunos efectos perturbadores interfieran con el pesaje, generalmente no es necesario pesar materiales con muchas repeticiones.


S DESVIACIÓN ESTÁNDAR (SD OR & # x003a3)

La desviación estándar es la medida de dispersión o variabilidad de los datos. Al calcular el tamaño de la muestra, un investigador debe anticipar la variación en las medidas que se están estudiando. Es fácil entender por qué necesitaríamos una muestra más pequeña si la población es más homogénea y, por lo tanto, tiene una varianza o desviación estándar menor. Supongamos que estamos estudiando el efecto de una intervención sobre el peso y consideramos una población con pesos que oscilan entre 45 y 100 kg. Naturalmente, la desviación estándar en este grupo será grande y necesitaríamos un tamaño de muestra más grande para detectar una diferencia entre las intervenciones; de lo contrario, la diferencia entre los dos grupos estaría enmascarada por la diferencia inherente entre ellos debido a la varianza. Si, por el contrario, tomáramos una muestra de una población con pesos entre 80 y 100 kg, naturalmente obtendríamos un grupo más ajustado y homogéneo, reduciendo así la desviación estándar y por lo tanto el tamaño de la muestra.


26 Respuestas a & ldquoAnalysis of the First Kepler SETI Observations & rdquo

Estoy a favor de la gente que busca, pero tengo mis dudas de que alguna vez encuentren algo.

No es & # 8217t que no creo en la vida (inteligente o no) en el Universo. Creo que la vida existe en otra parte. Creo que es un punto de vista sesgado pensar que usan la radio para comunicarse.

El hecho de que ACTUALMENTE lo hagamos no significa que lo harán. Solo hemos estado usando radio durante los últimos cien años y ¿quién puede decir cuánto tiempo llevará utilizar un medio más eficiente (por ejemplo, entrelazamiento cuántico)?

No creo que encuentren nada, pero espero sinceramente que se demuestre que estoy equivocado.

Estoy a favor de la gente que busca, pero tengo mis dudas de que alguna vez encuentren algo.

No es que yo no crea en la vida (inteligente o no) en el Universo. Creo que la vida existe en otra parte. Creo que es un punto de vista sesgado pensar que usan la radio para comunicarse.

El hecho de que ACTUALMENTE lo hagamos no significa que lo harán. Solo hemos estado usando radio durante los últimos cien años y ¿quién puede decir cuánto tiempo llevará utilizar un medio más eficiente (por ejemplo, entrelazamiento cuántico)?

No creo que encuentren nada, pero espero sinceramente que se demuestre que estoy equivocado.

Creo que tienes razón en todos los aspectos. Pero nunca se sabe hasta que se mira. Además, creo que se ha descartado el entrelazamiento cuántico como medio de comunicación. Alguien me corrija si me equivoco

Es cierto que no se puede utilizar el entrelazamiento cuántico (QE) para la comunicación. Jonathan May señala un hilo en el que Ken G y otros lo expresan de manera eficiente. En resumen, lo que tienes es una correlación entre observaciones, no causalidad.

Si pudiera usar QE, rompería la invariancia de Lorentz. Sin embargo, la mecánica cuántica lo conserva como se conoce a partir de su construcción de relatividad especial de la teoría cuántica de campos (QFT).

Pero no necesita QFT para verificar esto. Es el objetivo de los experimentos de prueba de Bell, donde las diferentes igualdades se derivan específicamente para ser correlaciones invariantes de relatividad especial, no relaciones causales.

Tenga en cuenta que el requisito de & # 8220strict Einstein locality & # 8221 se prueba con más de 30 desviaciones estándar, que yo sepa, la mejor prueba en física. * Eso se puede interpretar de muchas maneras, por supuesto.

& # 8211 Si te apegas al espíritu del experimento y la QM ingenua, lo que sucede para preservar la relatividad o la localidad es que los observables no tienen existencia antes de la observación.

& # 8211 Si quieres presentar el cortejo cuántico (y al influyente Zeilinger le gusta eso, ya que es religioso y lo usa públicamente como su & # 8220 brecha para los dioses & # 8221, mira sus seminarios), afirmas que la relatividad se rompe bajo QM y tienes misteriosa & # 8220acción a distancia & # 8221. No sé cómo encajan eso con los requisitos de QFT, donde la cuantificación se compara expresamente con los requisitos de la relatividad. (O eso me han dicho, sin haber estudiado QFT).

& # 8211 En la teoría realista de muchos mundos de físicos teóricos como Sean Carroll, preservas tanto la localidad como la realidad al tener observables entrelazados que viven en muchos mundos.

——————
* Curiosamente la mejor prueba en ciencia es la biología, debido a su complejo proceso de evolución.

Una estructura de árbol de especies, rasgos o genes relacionados (filogenias) no se puede resolver muy bien, pero solo lo suficiente en la mayoría de los casos, incluso con muchas especies / rasgos / genes. Pero la explosión combinatoria de posibles variantes a medida que un árbol crece admite algunas pruebas muy potentes en algunos casos.

Tal caso es la existencia de la ascendencia común universal (UCA), que puede probarse como más probable que tener muchas CA en la raíz del árbol universal con un factor de

10 ^ 2040. ¡Eso es aproximadamente 2000 desviaciones estándar, creo!

Creo que tienes razón en todos los aspectos. Pero nunca se sabe hasta que se mira. Además, creo que se ha descartado el entrelazamiento cuántico como medio de comunicación. Alguien me corrija si me equivoco

Creo que tienes razón en todos los aspectos. Pero nunca se sabe hasta que se mira. Además, creo que se ha descartado el entrelazamiento cuántico como medio de comunicación. Alguien me corrija si me equivoco

Creo que tienes razón en todos los aspectos. Pero nunca se sabe hasta que se mira. Además, creo que se ha descartado el entrelazamiento cuántico como medio de comunicación. Alguien me corrija si me equivoco

Estoy de acuerdo. Por supuesto, siempre tienes que tener en cuenta un punto relevante sobre esto & # 8212 si miras, es posible que no encuentres nada & # 8230 si no miras, seguro que no encontrarás nada.

Incluso si las probabilidades están en contra de encontrar algo, no significa que no tenga sentido seguir buscando. Si los extraterrestres utilizan una tecnología más avanzada para comunicarse, lo más probable es que hayan utilizado alguna vez un medio de comunicación tan primitivo como la radio durante su vida. Tienes que empezar con A para llegar a B, ¿verdad?

¿Quién dice que no estarán escuchando con diferentes tipos de medios para buscar extraterrestres también, asumiendo que nosotros o alguien más podríamos no estar tan avanzados tecnológicamente como ellos?

Puede que SETI tarde un siglo en obtener algún tipo de resultado, pero aun así, creo que es mejor buscar la respuesta en lugar de simplemente asumir que no hay nada allí.

Estoy a favor de la gente que busca, pero tengo mis dudas de que alguna vez encuentren algo.

No es que yo no crea en la vida (inteligente o no) en el Universo. Creo que la vida existe en otra parte. Creo que es un punto de vista sesgado pensar que usan la radio para comunicarse.

El hecho de que ACTUALMENTE lo hagamos no significa que lo harán. Solo hemos estado usando radio durante los últimos cien años y ¿quién puede decir cuánto tiempo llevará utilizar un medio más eficiente (por ejemplo, entrelazamiento cuántico)?

No creo que encuentren nada, pero espero sinceramente que se demuestre que estoy equivocado.

Estoy a favor de la gente que busca, pero tengo mis dudas de que alguna vez encuentren algo.

No es & # 8217t que no creo en la vida (inteligente o no) en el Universo. Creo que la vida existe en otra parte. Creo que es un punto de vista sesgado pensar que usan la radio para comunicarse.

El hecho de que ACTUALMENTE lo hagamos no significa que lo harán. Solo hemos estado usando radio durante los últimos cien años y ¿quién puede decir cuánto tiempo llevará utilizar un medio más eficiente (por ejemplo, entrelazamiento cuántico)?

No creo que encuentren nada, pero espero sinceramente que se demuestre que estoy equivocado.

Por qué el entrelazamiento cuántico no permite una comunicación más rápida que la luz: http://www.physicsforums.com/showthread.php?t=231008

Vaya, leí toda la discusión sobre la comunicación FTL imposible a través de QE y no puedo decir que entendí nada. Un tipo holandés estaba insertando preguntas aleatorias sobre información aleatoria que solo confundían las cosas y el resto no podía & # 8217t parece hablar de tal manera que, de todos modos, Me haga entender. La única forma en que puedo ver la comunicación FTL a través de QE es poder manipular, digamos, los fotones DESPUÉS de que se hayan separado de manera que, a cualquier distancia, uno pueda ver que el otro está alternando polaridades en, digamos, ¡código morse! ¿Cómo es eso de volverse clásico con lo nuevo?

Manténganos informados, Sr. Anderson.

Impresionante referencia de Matrix (incluso si no fue & # 8217t previsto).

Consideremos las cosas desde otra perspectiva, la de un planeta KOI. Si formas de vida inteligentes habitan en un planeta así y está dentro de los 100 años luz de la Tierra y ellos & # 8220 & # 8221 radio, entonces ahora deberían estar recibiendo nuestras comunicaciones. Quizás el proyecto SETI en KOI 316 ha sido etiquetado como un gran éxito porque han identificado otra inteligencia en el universo. ¿Ahora que? Bueno, si están a 50 años luz de la Tierra, su respuesta ya debería haber llegado o tal vez lo haga mañana. Seguir mirando. Por otro lado, tal vez su flota estelar & # 8217 en camino & # 8230

Simplemente porque no detectamos señales de radio no significa que los ETs no existan, podrían estar usando otras formas de comunicarse. Considera esto:

29 de julio de 1952, la USAF ordena a los pilotos & # 8220 disparar & # 8221 platillos voladores sobre Whitehouse, hacer una búsqueda en Google de & # 8220 disparar platillos voladores de la fuerza aérea & # 8221

28 de julio de 1952 La USAF admite que han detectado lo que parecen ser & # 8220platos voladores & # 8221 en el radar y que podrían ser naves espaciales de otros planetas. Vaya al ARCHIVO de noticias de Google busque & # 8220air force orders saucers merry & # 8221 haga clic en buscar, al principio no dirá nada encontrado, pero en la página & # 8220n nothing found & # 8221 vaya a la columna inferior derecha y haga clic en archivos.

7 de abril de 1952 La revista LIFE en cooperación con la USAF defiende el caso de las visitas ET, haga una búsqueda en Google de & # 8220 7 de abril de 1952 Revista LIFE google & # 8221 página 80

3 de marzo de 1989 Radios de astronautas del Shuttle Discovery a Houston & # 8220 tenemos la nave espacial extraterrestre bajo observancia & # 8221 Haga una búsqueda en YouTube de & # 8220Prove che gli astronauti & # 8221 (una persona de habla italiana subió el video & # 8221

Algunas personas pueden centrarse en el hecho de que, según la ciencia humana actualmente aceptada, no se permiten comunicaciones más rápidas que la luz. Debemos recordar que nuestra ciencia no es completa, no tenemos una teoría cuántica de la gravedad, ni tenemos una teoría unificada. Si tuviéramos una teoría cuántica de la gravedad, podría decirnos si es posible o no doblar el espacio para reducir la distancia efectiva entre dos puntos muy distantes.

Además, si existe ET (lo cual hay indicios muy fuertes de que lo hace), puede que sea mucho más avanzado y puede haber explorado la física a energías más altas que las que los humanos actuales han explorado y puede haber descubierto la física que actualmente desconocemos.

¿No se podría utilizar en teoría el entrelazamiento cuántico como una forma de comunicación? Si es así, sería posible comunicarse instantáneamente sin importar la distancia.

Habiendo dicho eso, no entiendo completamente el proceso, por lo que es posible que esté diciendo algo terriblemente mal.

No, el entrelazamiento cuántico no se puede utilizar como un sistema de comunicación más rápido que la luz. Si obtenemos una entrada de blog sobre cuestiones cuánticas, podría entrar en más detalles. Sin embargo, en pocas palabras, suponga que tiene a Alice y Bob con una pareja enredada. Alice orienta su aparato de alguna manera y realiza una medición y luego orienta un estado auxiliar con estos resultados. Bob quiere hacer lo mismo, pero necesita la configuración del aparato que usó Alice. Eso debe comunicarse mediante una señal clásica a lo largo de un rayo de luz (cono de luz).

El entrelazamiento no permite eludir las limitaciones de la velocidad de la luz y esa información solo puede comunicarse a una velocidad v & lt = c.

No estoy seguro de que nos hayas dado algo para basarnos con estos resultados en Icro. Hace una explicación desordenada. Además, si ella tiene un fotón entrelazado en París, y Bob & # 8217s está en Nueva York y ella cambia la polaridad de ella, ¿entonces ganó & # 8217t Bob & # 8217s también cambiar la polaridad? La negatividad de ese cambio significa que ella no se unirá a él para cenar y, por tanto, comunicarse.

Un entrelazamiento solo conecta la aleatoriedad de una manera no local. Para teletransportar un estado o qubit con entrelazamiento, debes transferir ese entrelazamiento a un estado auxiliar y luego Alice debe comunicar a Bob la base propia elegida para este procedimiento.

Quizás, si la demanda es lo suficientemente grande, trataré de escribir más sobre esto, o esperaré hasta que se escriba aquí una entrada de blog que involucre la física cuántica. También podría tener que recurrir a la notación cuántica "bra-ket" y el uso de matrices de Hadamard para hacerlo más preciso. El problema es que la mecánica cuántica es simplemente extraña con respecto a nuestra experiencia ordinaria de las cosas. Feynman dijo que nadie comprende la mecánica cuántica. En algún nivel profundo ese es el caso, y ciertamente es el caso que cualquier intento de comprender la mecánica cuántica de acuerdo con nuestra experiencia ordinaria de la realidad está destinado al fracaso.

No estoy seguro de que nos hayas dado algo para basarnos con estos resultados en Icro. Hace una explicación desordenada. Además, si ella tiene un fotón entrelazado en París, y Bob & # 8217s está en Nueva York y ella cambia la polaridad de ella, ¿entonces ganó & # 8217t Bob & # 8217s también cambiar la polaridad? La negatividad de ese cambio significa que ella no se unirá a él para cenar y, por tanto, comunicarse.

No, el entrelazamiento cuántico no se puede utilizar como un sistema de comunicación más rápido que la luz. Si recibimos una entrada de blog sobre cuestiones cuánticas, podría entrar en más detalles. Sin embargo, en pocas palabras, suponga que tiene a Alice y Bob con una pareja enredada. Alice orienta su aparato de alguna manera y realiza una medición y luego orienta un estado auxiliar con estos resultados. Bob quiere hacer lo mismo, pero necesita la configuración del aparato que usó Alice. Eso debe comunicarse mediante una señal clásica a lo largo de un rayo de luz (cono de luz).

El entrelazamiento no permite eludir las limitaciones de la velocidad de la luz y esa información solo puede comunicarse a una velocidad v & lt = c.

Sólo porque hay fenómenos que no entendemos, sólo porque hay cambios en las observaciones, los hechos y las teorías, no significa que no sepamos las cosas con bastante firmeza. Las leyes que subyacen a la física de la vida cotidiana se entienden completamente.

Ftl es una de esas cosas, en las que no solo cambiaría toda la física tal como la conocemos ahora, sino que rompe todo tipo de resultados no válidos. Hay paradojas clásicas con partículas ftl y agujeros de gusano, ftl desestabiliza los lightcones, por lo que tanto las teorías de las partículas gauge como la relatividad general de una sola vez, etcétera.

Ftl significa una especie de viaje en el tiempo.Mi favorito aquí es la nota del científico informático Aaronsson, que la computación del viaje en el tiempo hace explotar la torre algorítmica de la complejidad, por lo que toda la física se vuelve igualmente simple. Eso, o el teorema de Church-Turing, no es válido, en cuyo caso todo lo que sabemos sobre los sistemas informáticos y su física es incorrecto. Dado que nada de eso ha sucedido, el viaje en el tiempo no puede ser.

si existe ET (que hay indicios muy fuertes de que sí)

No tenemos tales indicaciones en absoluto.

Tenemos fuertes razones, a mi juicio, para creer que las biosferas son fáciles de conseguir.

Sin embargo, la mayoría de los biólogos afirmarían que el camino hacia la inteligencia y especialmente la inteligencia tecnológica es un rasgo único y poco probable. Similar a encontrar la trompa de elefante evolucionada, lo que ha sucedido solo una vez.

Así que no tenemos ETI lo suficientemente cerca para la comunicación, según ellos.

Aunque puede ser cierto que conocemos la & # 8220física cotidiana & # 8221 con bastante firmeza, no se puede decir lo mismo de la física, que no está dentro de nuestro ámbito cotidiano. Simplemente porque hay paradojas & # 8220 aparentes & # 8221 con FTL no significa que no exista, FTL está fuera de nuestro ámbito cotidiano Y lleva nuestras teorías actuales de la física a sus límites. Porque cualquier teoría que usemos para calcular los efectos de FTL está sujeta a las limitaciones impuestas por nuestra actual falta de comprensión de la gravedad cuántica:

Segundo, simplemente porque tenemos paradojas & # 8220 aparentes & # 8221 no significa & # 8217t que el fenómeno no sea posible. Hay paradojas & # 8220 aparentemente & # 8221 en la Mecánica Cuántica, dualidad onda-partícula, resultados extraños en las mediciones, partículas capaces de hacer túneles fuera de pozos que tienen energías menores que la altura del pozo. Según una interpretación clásica, estas son paradojas, pero están permitidas en QM porque nuestro concepto clásico del mundo en sí es limitado. Lo mismo PUEDE (tenga en cuenta la palabra) ser cierto para FTL, sin una teoría completa de la gravedad cuántica, no podemos decir sí o no a los viajes FTL.

Hay muchos planes para & # 8220 viajes en el tiempo & # 8221

Hay muchos indicios sólidos de inteligencia no humana.

29 de julio de 1952, la USAF ordena a los pilotos & # 8220 disparar & # 8221 platillos voladores sobre Whitehouse, hacer una búsqueda en Google de & # 8220 disparar platillos voladores de la fuerza aérea & # 8221

28 de julio de 1952 La USAF admite que han detectado lo que parecen ser & # 8220platos voladores & # 8221 en el radar y que podrían ser naves espaciales de otros planetas. Vaya al ARCHIVO de noticias de Google busque & # 8220air force orders saucers merry & # 8221 haga clic en buscar, al principio no dirá nada encontrado, pero en la página & # 8220n nothing found & # 8221 vaya a la columna inferior derecha y haga clic en archivos.

7 de abril de 1952 La revista LIFE en cooperación con la USAF defiende el caso de las visitas ET, haga una búsqueda en Google de & # 8220 7 de abril de 1952 Revista LIFE google & # 8221 página 80

3 de marzo de 1989 Radios de astronautas del Shuttle Discovery a Houston & # 8220 tenemos la nave espacial extraterrestre bajo observancia & # 8221 Haga una búsqueda en YouTube de & # 8220Prove che gli astronauti & # 8221 (una persona de habla italiana subió el video)

El Proyecto Libro Azul (un estudio científico de ovnis realizado por el gobierno de los EE. UU.) Indicó que de todos los casos de ovnis que estudiaron, alrededor del 22% no tenían explicación Y cuanta más información recibían de esos 22%, MENOS podían ser explicados.

El simple hecho de que los biólogos digan que la inteligencia es un rasgo poco probable no prueba que no pueda existir fuera de la tierra, es simplemente una inferencia estadística, NO una prueba.



¡Únase a nuestros 836 patrocinadores! No vea anuncios en este sitio, vea nuestros videos con anticipación, material adicional especial y mucho más. Únase a nosotros en patreon.com/universetoday


Calcule cuánto dinero de estímulo debería recibir esta vez

El IRS analiza muchas cifras para calcular para cuánto califica, incluso si su ingreso bruto ajustado, o AGI, es menos de $ 80,000 (para contribuyentes solteros), $ 120,000 (como jefes de familia) o $ 160,000 (para parejas que presentan una declaración conjunta ) y cuántos dependientes tiene y sus edades. Usted hace las matemáticas por usted, nuestra calculadora tiene todo en cuenta para darle una estimación. La calculadora no conserva sus datos personales.