Astronomía

Comprender la estructura de datos esperada de TESS

Comprender la estructura de datos esperada de TESS


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Estoy interesado en intentar utilizar los datos que devolverá TESS para aplicar algunos conceptos de aprendizaje automático / ciencias de la computación. Todavía no estoy seguro de lo que quiero intentar hacer con él (aunque tengo algunas ideas, vea los comentarios finales). Esto se debe a que realmente no entiendo la estructura de datos que utilizará.

Entonces, esencialmente, primero me gustaría ayudarme a obtener una vista de alto nivel de cómo están estructurados los datos de TESS. Luego, un poco de orientación sobre cómo podría visualizarlo / comenzar con un ejemplo básico

Información adicional / lo que sé en este momento

Revisé la página MAST. Detalla qué tipo de documentos FITS se devolverán.

He descargado muestras de algunos de estos productos de datos y veo que todos vienen en formato FITS. En Ubuntu, puedes abrirlo en Aladin. Sin embargo, Aladin en sí mismo es una pieza de software bastante complicada. ¿Necesito Aladin para esto, o existen alternativas simples para ver los datos rápidamente para ayudar a tener una idea de lo que significan? En otras palabras, ¿qué tipo de navegador utiliza para los archivos FITS?

Soy bastante nuevo en astronomía, estoy llegando a esto más bien desde una perspectiva de ciencias de la computación. Algunas sugerencias básicas sobre qué tipo de observación podría querer realizar un astrónomo aficionado serían bienvenidas si las tiene.

Los datos vinculados arriba (página MAST) son datos simulados (los datos reales solo estarán disponibles en un par de meses). Esto está bien, principalmente interesado en ser funcional con los datos cuando llegan.

Ideas de análisis de datos:

  • Usar kmeans o similar para intentar extraer algunas de las curvas de luz de tránsito "típicas"
    • Generar esas curvas de luz de tránsito a partir de los datos sin procesar, por ejemplo, de un píxel de destino

HEASARC mantiene una lista de espectadores FITS. Quizás uno de ellos cumpla con sus requisitos. Por supuesto, las capacidades y la usabilidad varían ampliamente. fv hizo lo suficiente para ayudarme a responder otra pregunta aquí.

El documento de descripción de productos de datos científicos de TESS proporciona una descripción de una línea de cada uno de sus campos de encabezado FITS. Si Wikipedia y las pruebas exploratorias no cierran las brechas, vuelva a preguntar aquí.


Una opción interesante es abrir en un IDE de Python usando Astropy. Lo encuentro útil porque puede manipular los archivos a medida que aprende su estructura.

También es posible usar matplotlib junto con Astropy y luego básicamente tener un visor de archivos FITS que puede codificar usted mismo.

Algo como:

import astropy import matplotlib.pyplot como plt de astropy.visualization import astropy_mpl_style def open_fits_file (cabe_paso): para el archivo en la ruta (se ajusta a la ruta) .iterdir (): # Realmente no se usa con, pero se las arregla para cerrar el archivo ... con ajustes .open (file) as open_fits: #imprimir información de encabezado para ese archivo open_fits.info () plot_image (cabe.getdata (file, ext = 2))

Luego para trazar la imagen:

def plot_image (fit_image_data): #astropy tiene mejores configuraciones de trazado para este uso plt.style.use (astropy_mpl_style) plt.figure () plt.imshow (fit_image_data, cmap = "gray") plt.colorbar () plt.show ()

Lo usé para trazar los píxeles de estos datos simulados vinculados en la pregunta.

Como lo mencionó Mike G, HEASARC como una lista de espectadores, incluido FV (se ajusta al espectador). Funciona bien y tiene algún soporte integrado para conectarse con otra base de datos de astronomía. Tiene una sensación de la era de Apolo en términos de apariencia, lo cual es agradable ... ¿supongo?


Los datos del VLT sugieren que las estrellas más brillantes tienen compañeros cercanos

Una nueva investigación que utiliza datos del Very Large Telescope de ESO ha revelado que las estrellas más calientes y brillantes, conocidas como estrellas O, a menudo se encuentran en pares cercanos. Muchos de estos binarios transfieren masa de una estrella a otra, una especie de vampirismo estelar representado en la impresión de este artista (ESO / M. Kornmesser / S.E. de Mink)

Sorprendentemente, la mayoría de estos pares también están experimentando interacciones disruptivas, como la transferencia de masa de una estrella a la otra, e incluso se espera que alrededor de un tercio se fusionen finalmente para formar una sola estrella.

El Universo es un lugar diverso y muchas estrellas son bastante diferentes al Sol. Un equipo internacional ha utilizado el VLT para estudiar lo que se conoce como estrellas de tipo O, que tienen una temperatura, masa y brillo muy altos. Estas estrellas tienen vidas cortas y violentas y juegan un papel clave en la evolución de las galaxias. También están vinculados a fenómenos extremos como las "estrellas vampiro", donde una estrella compañera más pequeña succiona materia de la superficie de su vecino más grande y estallidos de rayos gamma.

"Estas estrellas son gigantes absolutos", dijo el Dr. Hugues Sana de la Universidad de Amsterdam, Holanda, quien dirigió un estudio publicado en la edición del 27 de julio de la revista. Ciencias. “Tienen 15 o más veces la masa de nuestro Sol y pueden ser hasta un millón de veces más brillantes. Estas estrellas son tan calientes que brillan con una luz azul-blanca brillante y tienen temperaturas superficiales superiores a los 30 000 grados Celsius ”.

Los astrónomos estudiaron una muestra de 71 estrellas individuales de tipo O y estrellas en pares en seis cúmulos de estrellas jóvenes cercanos en la Vía Láctea.

Al analizar la luz proveniente de estos objetivos con mayor detalle que antes, el equipo descubrió que el 75% de todas las estrellas de tipo O existen dentro de sistemas binarios, una proporción más alta de lo que se pensaba anteriormente, y la primera determinación precisa de este número. Sin embargo, lo que es más importante, encontraron que la proporción de estos pares que están lo suficientemente cerca para interactuar es mucho más alta de lo que nadie había pensado, lo que tiene profundas implicaciones para nuestra comprensión de la evolución de las galaxias.

"La vida de una estrella se ve muy afectada si existe junto a otra estrella", dijo la coautora, la Dra. Selma de Mink, del Instituto de Ciencias del Telescopio Espacial. “Si dos estrellas orbitan muy cerca una de la otra, eventualmente pueden fusionarse. Pero incluso si no es así, una estrella a menudo sacará materia de la superficie de su vecino ".

Las fusiones entre estrellas, que el equipo estima que serán el destino final de alrededor del 20-30% de las estrellas de tipo O, son eventos violentos. Pero incluso el escenario comparativamente suave de las estrellas vampiro, que representa un 40-50% adicional de los casos, tiene efectos profundos en la forma en que evolucionan estas estrellas.

Hasta ahora, los astrónomos consideraban principalmente que las estrellas binarias masivas en órbita cercana eran la excepción, algo que solo era necesario para explicar fenómenos exóticos como binarios de rayos X, púlsares dobles y binarios de agujeros negros. El nuevo estudio muestra que para interpretar correctamente el Universo, esta simplificación no se puede hacer: estas estrellas dobles de peso pesado no solo son comunes, sus vidas son fundamentalmente diferentes de las de las estrellas individuales.

Información bibliográfica: Sana H et al. 2012. La interacción binaria domina la evolución de estrellas masivas. Ciencias vol. 337, no. 6093, págs. 444-446 doi: 10.1126 / science.1223344


Los telescopios Kepler, K2 y TESS observan estrellas durante largos períodos de tiempo, desde poco menos de un mes hasta cuatro años. Al hacerlo, observan cómo cambia el brillo de las estrellas con el tiempo.

Los píxeles alrededor de las estrellas objetivo se recortan y almacenan como archivos de píxeles de destino en cada cadencia de observación. En este tutorial, aprenderemos cómo usar Lightkurve para descargar y comprender los diferentes datos fotométricos almacenados en un archivo de píxeles de destino, y cómo extraer el flujo usando fotometría de apertura básica.

Es útil leer el tutorial adjunto que analiza cómo usar productos de archivos de píxeles de destino con Lightkurve antes de comenzar este tutorial. Se recomienda que también lea el tutorial sobre el uso Kepler productos de curva de luz con Lightkurve, que le presentará algunos detalles sobre cómo Kepler, K2, y TESS hacer observaciones y cómo se muestran como curvas de luz. También presenta algunos términos y conceptos importantes a los que se hace referencia en este tutorial.

Kepler observó un solo campo en el cielo, aunque no se registraron todas las estrellas en este campo. En cambio, se seleccionaron píxeles alrededor de ciertas estrellas objetivo. Estas imágenes recortadas se denominan archivos de píxeles de destino o TPF. Al combinar la cantidad de flujo en los píxeles donde aparece la estrella, puede medir la cantidad de luz de una estrella en esa observación. Los píxeles elegidos para incluir en esta medición se denominan abertura.

Los TPF suelen ser el primer puerto de escala cuando se estudia una estrella con Kepler, K2, o TESS. Nos permiten ver de dónde provienen nuestros datos e identificar posibles fuentes de ruido o tendencias sistemáticas. En este tutorial, usaremos el Kepler misión como el ejemplo principal, pero estas herramientas se aplican igualmente a TESS y K2 también.


Comprensión de la estructura de datos TESS esperada - Astronomía

Matriz, lista enlazada, pila, colas, búsqueda, clasificación, árbol, gráfico y # 8230
¿Tiene preguntas de por qué debería estudiar todas las cosas complicadas anteriores si no tiene absolutamente ningún uso en la vida real? ¿Por qué las empresas hacen preguntas relacionadas con las estructuras de datos y los algoritmos si no son útiles en el trabajo diario?

Muchos programadores principiantes y experimentados evitan aprender algoritmos y estructuras de datos porque es complicado y piensan que todo lo anterior no sirve de nada en la vida real. Entonces, antes de discutir el tema, le presentaremos un problema simple y debe encontrar la solución para eso.

  • Si intenta buscarlo de forma aleatoria o secuencial, le llevará demasiado tiempo. Es posible que se sienta frustrado después de un tiempo.
  • Puede probar otra solución que se proporciona a continuación & # 8230
    1. Vaya a la página no. 10000
    2. Si tu rollo no. no está allí, pero todos los demás rollos no. en esa página son menores que los tuyos
    3. Vaya a la página no. 15000
    4. Aún así, si tu rollo no. No está ahí. pero esta vez todos los demás tiran no. es mayor que tu.
    5. Vaya a la página no. 12500

Continúe con el mismo proceso y dentro de 30 a 40 segundos encontrará su número de rollo. Felicitaciones & # 8230 que acaba de usarAlgoritmo de búsqueda binaria involuntariamente ..

Este fue solo un ejemplo simple y es posible que haya entendido un poco por qué el aprendizaje de la estructura de datos y el algoritmo es importante en la vida real. Hay muchos ejemplos que puede encontrar en su vida diaria. Entonces, si cree que esta habilidad solo es importante para descifrar las entrevistas de las empresas basadas en productos, está totalmente equivocado.

  • Si desea romper las entrevistas y entrar en las empresas basadas en productos
  • Si te encanta resolver los problemas complejos del mundo real.

Para descifrar las entrevistas de las principales empresas basadas en productos

¿Sabe que bajo el capó todos sus comandos SQL y Linux son algoritmos y estructuras de datos? Puede que no te des cuenta de esto, pero así es como funciona el software.

Las estructuras de datos y los algoritmos juegan un papel importante en la implementación del software y también en el proceso de contratación. Muchos estudiantes y profesionales tienen esta pregunta: ¿por qué estas empresas & # 8217 entrevistas se centran en DSA en lugar de preguntas específicas de lenguaje / marcos / herramientas? Expliquemos por qué sucede & # 8230

Cuando le pida a alguien que tome una decisión por algo, el bueno podrá decirle & # 8220Elegí hacer X porque es mejor que A, B de esta manera. Podría haber ido con C, pero sentí que esta era una mejor opción debido a esto& # 8220. En nuestro día a día, siempre vamos con esa persona que puede completar la tarea en poco tiempo con eficiencia y utilizando menos recursos. Lo mismo pasa con estas empresas. El problema al que se enfrentan estas empresas es mucho más difícil y a una escala mucho mayor. Los desarrolladores de software también deben tomar las decisiones correctas a la hora de resolver los problemas de estas empresas.

El conocimiento de estructuras de datos como tablas hash, árboles, intentos, gráficos y varios algoritmos ayuda mucho a resolver estos problemas de manera eficiente y los entrevistadores están más interesados ​​en ver cómo los candidatos usan estas herramientas para resolver un problema. Al igual que un mecánico de automóviles necesita la herramienta adecuada para reparar un automóvil y hacerlo funcionar correctamente, un programador necesita la herramienta adecuada (algoritmo y estructura de datos) para que el software funcione correctamente. Entonces el entrevistador quiere encontrar un candidato que pueda aplicar el conjunto de herramientas adecuado para resolver el problema dado.. Si conoce las características de una estructura de datos en contraste con otra, podrá tomar la decisión correcta al elegir la estructura de datos adecuada para resolver un problema.

Los ingenieros que trabajan en Google, Microsoft, Facebook, empresas similares a Amazon son diferentes a otras y pagan más en comparación con otras empresas, pero ¿por qué? En estas empresas, la codificación es solo la implementación y toma aproximadamente entre el 20 y el 30% del tiempo asignado a un proyecto. La mayor parte del tiempo se dedica a diseñar cosas con los mejores y más óptimos algoritmos para ahorrar en los recursos de la empresa (servidores, potencia de cálculo, etc.). Esta es la razón principal por la que las entrevistas en estas empresas se centran en algoritmos, ya que quieren que las personas que puedan pensar fuera de la caja diseñen algoritmos que puedan ahorrarle a la empresa miles de dólares. Youtube, Facebook, Twitter, Instagram, GoogleMaps, todos estos sitios tienen el mayor número de usuarios del mundo. Para manejar más usuarios en estos sitios, se requiere una mayor optimización y esa es la razón por la que las empresas basadas en productos solo contratan candidatos que pueden optimizar su software según la demanda del usuario.

Ejemplo: Suponga que está trabajando en una empresa de Facebook. Se le ocurre una solución óptima de un problema (como ordenar una lista de usuarios de la India) con una complejidad de tiempo de O (nLogn) en lugar de O (n ^ 2) y asume que n para el problema aquí para la empresa en real El escenario de vida es de 100 millones (suposición muy justa considerando que el número de usuarios registrados en Facebook supera los mil millones). nLogn sería 800 millones, mientras que n ^ 2 sería 10 ^ 7 mil millones. En términos de costos, puede ver que la eficiencia se ha mejorado más de 10 ^ 7 veces, lo que podría suponer un gran ahorro en términos de costo y tiempo del servidor.
Ahora es posible que haya entendido que las empresas quieren contratar a un desarrollador inteligente que pueda tomar la decisión correcta y ahorrarle recursos, tiempo y dinero a la empresa. Entonces, antes de dar la solución para usar una tabla Hash en lugar de List para resolver un problema específico, piense detenidamente en la gran escala y en todos los escenarios de casos. Puede generar ingresos para la empresa o la empresa puede perder una gran cantidad de dinero.

Para resolver algunos problemas complejos del mundo real

¿Alguna vez te regañaron tus padres cuando no pudiste encontrar tu libro o ropa en tu desordenada habitación? Definitivamente sí & # 8230, tus padres tienen razón cuando dan el consejo de mantener todo en el lugar correcto para que la próxima vez puedas conseguir tus cosas fácilmente. Aquí debe organizar y mantener todo (datos) en una estructura tal que siempre que necesite buscar algo lo obtenga tan fácilmente y tan pronto como sea posible. Este ejemplo da una idea clara de lo importante que es organizar o estructurar los datos en la vida real.

Tomemos ahora el ejemplo de una biblioteca. Si necesita encontrar un libro sobre teoría de conjuntos en una biblioteca, primero irá a la sección de matemáticas y luego a la sección de teoría de conjuntos. Si estos libros no están organizados de esta manera y simplemente se distribuyen al azar, será frustrante encontrar un libro específico. Entonces, las estructuras de datos se refieren a la forma en que organizamos la información en nuestra computadora. Los informáticos procesan y buscan la mejor manera en que podemos organizar los datos que tenemos, para que puedan procesarse mejor en función de la información proporcionada.

  • Facebook (Sí & # 8230, estamos hablando de su aplicación favorita). ¿Te imaginas que tus amigos en Facebook, amigos de amigos, amigos en común, todos pueden ser representados fácilmente por Graph? Relájese & # 8230. siéntese un par de momentos y piénselo de nuevo & # 8230; puede aplicar un gráfico para representar la conexión de amigos en Facebook.
  • Si necesita mantener una baraja de cartas y organizarla correctamente, ¿cómo lo haría? Lo lanzará al azar o colocará las cartas una encima de la otra y de una baraja adecuada. Puede usar Stack aquí para hacer una disposición adecuada de las tarjetas una sobre otra.
  • Si necesita buscar una palabra en el diccionario, ¿cuál sería su enfoque? ¿Vas página a página o abres alguna página y si no se encuentra la palabra, abres una página anterior / posterior a la abierta dependiendo del orden de las palabras en la página actual (búsqueda binaria)?

Los dos primeros fueron un buen ejemplo de cómo elegir la estructura de datos correcta para un problema del mundo real y el tercero es un buen ejemplo de cómo elegir el algoritmo correcto para resolver un problema específico en menos tiempo.

Todos los ejemplos anteriores le dan una idea clara de que la organización de los datos es realmente importante en nuestro día a día. Organizar los datos en una estructura específica es realmente útil para ahorrar mucho tiempo y resulta más fácil manipularlos o usarlos. Lo mismo ocurre con el algoritmo: todos queremos ahorrar tiempo, energía y recursos. Todos queremos elegir el mejor enfoque para resolver los problemas de nuestra vida diaria. Existen muchos problemas en el mundo que pueden tardar horas o días en resolverse con la solución nativa, ¡también puede llevar años! ¡Puedes imaginar! mire esto: Importancia de la estructura de datos y los algoritmos
Estamos rodeados de muchos problemas complejos del mundo real para los que nadie tiene la solución. Observa los problemas en profundidad y podrás ayudar a este mundo dando la solución que nadie ha dado antes.

La estructura de datos y los algoritmos ayudan a comprender la naturaleza del problema a un nivel más profundo y, por lo tanto, a una mejor comprensión del mundo.

Si desea saber más sobre por qué las estructuras de datos y los algoritmos, debe ver este video de Sr. Sandeep Jain (CEO y fundador, GeeksforGeeks).

¡Atención lector! Don & rsquot deje de aprender ahora. Obtenga todos los conceptos importantes de DSA con el Curso autodidacta de DSA a un precio asequible para los estudiantes y prepárese para la industria. Para completar su preparación desde el aprendizaje de un idioma hasta DS Algo y muchos más, consulte Curso completo de preparación para entrevistas.

En caso de que desee asistir a clases en vivo con expertos de la industria, consulte Clases en vivo de DSA


Las listas enlazadas se repiten más comúnmente mediante el uso de un bucle while. Dado que carecen de índices, los bucles for en realidad no son tremendamente útiles. En su lugar, nos movemos sobre ellos comprobando si el nodo actual (o su siguiente puntero) es nulo.

Aquí tienes una función de impresión básica:

Esta función se mueve a través de una lista vinculada e imprime el valor en cada posición. La variable de lectura se establece repetidamente en su propia propiedad siguiente, moviéndola hacia abajo en la línea hasta que sea igual a nula (y, por lo tanto, haya llegado al final de la lista). Tenga en cuenta que lo hacemos no use el valor de head, pero en su lugar asigne una nueva variable si tuviéramos que reasignar head, podríamos perderlo y destruir toda la lista. Es mucho mejor usar una variable secundaria.


Título: Estrategias de programación para el seguimiento de ESPRESSO de los objetivos de TESS

RESUMEN Se espera que el seguimiento de la velocidad radial de las estrellas que albergan planetas en tránsito detectados por TESS requiera una gran cantidad de tiempo de telescopio costoso en los próximos años. Por lo tanto, se deben implementar estrategias de programación para maximizar la cantidad de información recopilada sobre los sistemas planetarios objetivo. Consideramos versiones miopes y no miopes de un nuevo programador uniforme en fase, así como un programador aleatorio, y comparamos estas estrategias de programación con respecto al sesgo, la exactitud y la precisión logradas en la recuperación de los parámetros de masa y orbitales de tránsito y planetas no en tránsito. Esta comparación se lleva a cabo en base a simulaciones realistas de seguimiento de velocidad radial con ESPRESSO de una muestra de 50 estrellas objetivo TESS, con sistemas planetarios simulados que contienen al menos un planeta en tránsito con un radio por debajo de 4R⊕. Se generaron conjuntos de datos de velocidad radial bajo supuestos razonables sobre su componente de ruido, incluido el resultante de la actividad estelar, y se analizaron utilizando una metodología completamente bayesiana. Encontramos que el programador aleatorio conduce a una estimación más sesgada, menos precisa y menos precisa de la masa de los exoplanetas en tránsito. No se encuentran diferencias significativas entre los resultados de las implementaciones miopes y no miopes del planificador uniforme en fase. Con solo alrededor de 22 mediciones de velocidad radial por datamore & raquo set, nuestro novedoso programador uniforme en fase permite una medición imparcial (al nivel del 1 por ciento) de las masas de los planetas en tránsito, mientras mantiene la exactitud y precisión relativa promedio alrededor 16 por ciento y 23 por ciento, respectivamente. El número de planetas no en tránsito detectados es similar para todas las estrategias de programación consideradas, así como el sesgo, exactitud y precisión con la que se recuperan sus masas y parámetros orbitales. & laquo menos


Contenido

Los archivos de imágenes sin procesar a veces se describen incorrectamente como "negativos digitales", pero ni son negativos ni los archivos sin procesar constituyen imágenes visibles. Más bien, los conjuntos de datos sin procesar se parecen más a una película expuesta pero sin revelar que se puede convertir (revelar electrónicamente) de manera no destructiva varias veces en pasos observables y reversibles para alcanzar una imagen visualmente deseada. (Con la película expuesta, el revelado es un evento único que transforma físicamente la película no expuesta de manera irreversible).

Al igual que la película fotográfica sin revelar, una imagen digital en bruto puede tener un rango dinámico o gama de colores más amplia que la película o impresión revelada. A diferencia de la película física después del revelado, el archivo Raw conserva la información capturada en el momento de la exposición. El propósito de los formatos de imagen sin procesar es guardar, con una mínima pérdida de información, los datos obtenidos del sensor.

Los formatos de imagen sin procesar están destinados a capturar las características radiométricas de la escena, es decir, información física sobre la intensidad de la luz y el color de la escena, con el mejor rendimiento del sensor de la cámara. La mayoría de los formatos de archivo de imagen sin procesar almacenan información detectada de acuerdo con la geometría de los elementos fotorreceptores individuales del sensor (a veces llamados píxeles) en lugar de puntos en la imagen final esperada: los sensores con desplazamiento de elemento hexagonal, por ejemplo, registran información para cada uno de sus elementos hexagonales. -células desplazadas, que un software de decodificación eventualmente transformará en geometría rectangular durante el "revelado digital".

Los archivos sin procesar contienen la información necesaria para producir una imagen visible a partir de los datos del sensor de la cámara. La estructura de los archivos sin formato a menudo sigue un patrón común:

  • Un encabezado de archivo corto que generalmente contiene un indicador del orden de bytes del archivo, un identificador de archivo y un desplazamiento en los datos del archivo principal
  • Metadatos del sensor de la cámara que se requieren para interpretar los datos de la imagen del sensor, incluido el tamaño del sensor, los atributos del CFA y su perfil de color
  • Metadatos de imagen que pueden ser útiles para su inclusión en cualquier entorno o base de datos de CMS. Estos incluyen la configuración de exposición, modelo de cámara / escáner / lente, fecha (y, opcionalmente, lugar) de la toma / escaneo, información de autoría y otros. Algunos archivos sin procesar contienen una sección de metadatos estandarizada con datos en formato Exif.
  • Una miniatura de la imagen
  • La mayoría de los archivos RAW contienen una conversión JPEG de tamaño completo de la imagen, que se utiliza para obtener una vista previa del archivo en el panel LCD de la cámara.
  • En el caso de escaneos de películas cinematográficas, el código de tiempo, el código clave o el número de fotograma en la secuencia de archivo que representa la secuencia de fotogramas en un carrete escaneado. Este elemento permite ordenar el archivo en una secuencia de fotogramas (sin depender de su nombre de archivo).
  • Los datos de la imagen del sensor

Muchos formatos de archivo sin procesar, incluidos IIQ (Phase One), 3FR (Hasselblad), DCR, K25, KDC (Kodak), CRW CR2 CR3 (Canon), ERF (Epson), MEF (Mamiya), MOS (Leaf), NEF NRW (Nikon), ORF (Olympus), PEF (Pentax), RW2 (Panasonic) y ARW, SRF, SR2 (Sony) se basan en el formato de archivo TIFF. [3] Estos archivos pueden desviarse del estándar TIFF de varias maneras, incluido el uso de un encabezado de archivo no estándar, la inclusión de etiquetas de imagen adicionales y el cifrado de algunos de los datos etiquetados.

El convertidor sin procesar de Panasonic corrige la distorsión geométrica y la aberración cromática en cámaras como la LX3, [4] [5] [6] con la información de corrección necesaria presumiblemente incluida en el archivo sin procesar. [7] El convertidor sin procesar de Phase One Capture One también ofrece correcciones para distorsión geométrica, aberración cromática, franjas violetas y corrección trapezoidal emulando la capacidad de cambio de inclinación en software y hardware especialmente diseñado, en la mayoría de archivos sin procesar de más de 100 cámaras diferentes. [8] [9] Lo mismo se aplica a la aplicación DPP de Canon, al menos para todas las cámaras más caras, como todas las réflex digitales EOS y la serie G de cámaras compactas.

DNG, el formato negativo digital de Adobe, es una extensión del formato TIFF 6.0 y es compatible con TIFF / EP, y utiliza varios formatos abiertos y / o estándares, incluidos metadatos Exif, metadatos XMP, metadatos IPTC, coordenadas CIE XYZ, perfiles ICC y JPEG. [10]

Datos de imagen del sensor Editar

En fotografía digital, el archivo sin procesar juega el papel que juega la película fotográfica en la fotografía de película. Por lo tanto, los archivos sin procesar contienen los datos de resolución completa (generalmente de 12 o 14 bits) tal como se leen en cada uno de los píxeles del sensor de imagen de la cámara.

El sensor de la cámara está casi invariablemente superpuesto con una matriz de filtros de color (CFA), generalmente un filtro Bayer, que consiste en un mosaico de una matriz de 2x2 de filtros rojo, verde, azul y (segundo) verde.

Una variación del filtro Bayer es el filtro RGBE de la Sony Cyber-shot DSC-F828, que intercambia el verde en las filas RG con "esmeralda" [11] (un color azul-verde [12] o cian [13]). . Otros sensores, como el sensor Foveon X3, capturan información directamente en forma RGB (utilizando tres sensores de píxeles en cada ubicación). Estos datos sin procesar RGB aún deben procesarse para crear un archivo de imagen, porque los valores RGB sin procesar corresponden a las respuestas de los sensores, no a un espacio de color estándar como sRGB. Como no existe Bayer ni ningún otro mosaico, no es necesario realizar demostraciones.

Los sensores de escáner de superficie plana y de película suelen ser tiras rectas y estrechas RGB o RGBI (donde "I" representa el canal de infrarrojos adicional para la eliminación automática del polvo) que se desplazan por una imagen. El formato de datos brutos HDRi puede almacenar los datos brutos infrarrojos, que se pueden utilizar para la limpieza por infrarrojos, como un canal adicional de 16 bits. El resto de la discusión sobre archivos sin formato también se aplica a ellos. Algunos escáneres no permiten que el sistema host acceda a los datos sin procesar en absoluto, como un compromiso de velocidad. Los datos sin procesar se procesan muy rápidamente dentro del escáner para seleccionar la mejor parte del rango dinámico disponible, por lo que solo el resultado se pasa a la computadora para su almacenamiento permanente, lo que reduce la cantidad de datos transferidos y, por lo tanto, el requisito de ancho de banda para cualquier velocidad dada de rendimiento de la imagen. [ cita necesaria ]

Para obtener una imagen de un archivo sin procesar, este mosaico de datos debe convertirse en formato RGB estándar. Esto a menudo se denomina "desarrollo en bruto".

Cuando se convierte de la forma cruda de matriz Bayer 2x2 de cuatro sensores en píxeles RGB, el par verde se usa para controlar el detalle de luminancia del píxel de salida procesado, mientras que el rojo y el azul, que tienen la mitad de muestras, se usan principalmente para el componente cromático de la imagen que varía más lentamente.

Si se dispone de datos en formato sin procesar, se pueden usar en la conversión de imágenes de alto rango dinámico, como una alternativa más simple al enfoque de HDI de exposición múltiple de capturar tres imágenes separadas, una subexpuesta, una correcta y otra sobreexpuesta, y "superpuesta". Uno encima del otro.

Estandarización Editar

Proporcionar una descripción detallada y concisa del contenido de los archivos sin formato es muy problemático. No existe un único formato de formato sin formato que pueda ser similar o radicalmente diferente. Los diferentes fabricantes utilizan sus propios formatos patentados y, por lo general, no documentados, que se conocen colectivamente como formato sin procesar. A menudo, también cambian el formato de un modelo de cámara a otro. Varios fabricantes importantes de cámaras, incluidos Nikon, Canon y Sony, cifran partes del archivo en un intento de evitar que herramientas de terceros accedan a ellos. [14]

Esta situación de formato inconsistente en toda la industria ha preocupado a muchos fotógrafos a quienes les preocupa que sus valiosas fotos sin procesar algún día se vuelvan inaccesibles, ya que los sistemas operativos y los programas de software se vuelven obsoletos y los formatos sin procesar abandonados se eliminan del nuevo software. La disponibilidad de software de código abierto de alta calidad que decodifica formatos de imagen sin procesar, particularmente dcraw, ha ayudado a aliviar estas preocupaciones. Un ensayo de Michael Reichmann y Juergen Specht declaró "aquí hay dos soluciones: la adopción por parte de la industria de las cámaras de A: Documentación pública de RAW [sic] formatos pasados, presentes y futuros, o, más probablemente B: Adopción de un RAW universal [sic] formato ". [15] [16] [17]" Planificación para las colecciones de la Biblioteca del Congreso de [EE. UU.] "identifica los formatos de archivo sin procesar como" formatos de archivo menos deseables "e identifica a DNG como una alternativa sugerida. [18]

DNG es el único formato de imagen sin procesar para el que se busca la aceptación de toda la industria. Se basa y es compatible con el formato de imagen sin procesar del estándar ISO ISO 12234-2, TIFF / EP, y ISO lo está utilizando en su revisión de ese estándar.

El formato de imagen sin procesar estándar de ISO es ISO 12234-2, más conocido como TIFF / EP. (TIFF / EP también admite imágenes "no crudas" o "procesadas"). TIFF / EP proporcionó una base para los formatos de imagen sin procesar de varias cámaras. Por ejemplo, los archivos RAW NEF de Nikon se basan en TIFF / EP e incluyen una etiqueta que identifica la versión de TIFF / EP en la que se basan. [19] El formato de archivo sin formato DNG de Adobe se basó en TIFF / EP, y la especificación DNG establece "DNG. Es compatible con el estándar TIFF-EP". [20] Varias cámaras usan DNG como formato de imagen sin procesar, por lo que en ese sentido limitado también usan TIFF / EP. [21]

Adobe Systems lanzó este formato de imagen sin procesar DNG en septiembre de 2004. En septiembre de 2006, varios fabricantes de cámaras habían comenzado a anunciar compatibilidad con DNG en modelos de cámaras más nuevos, incluidos Leica, Samsung, Ricoh, Pentax, Hasselblad (compatibilidad con cámaras nativas) y Better Light (exportar). [22] El Leica Digital-Modul-R (DMR) fue el primero en utilizar DNG como formato nativo. [23] En septiembre de 2009, Adobe declaró que no se conocían gravámenes de propiedad intelectual o requisitos de licencia para DNG. [24] Existe una "Licencia de patente de especificación negativa digital (DNG)", [25] pero en realidad no establece que están cualquier patente poseída sobre DNG, y la declaración de septiembre de 2009 se realizó al menos 4 años después de la publicación de esta licencia.

TIFF / EP comenzó su ciclo de revisión de 5 años en 2006. [26] Adobe ofreció la especificación DNG a ISO como parte del estándar TIFF / EP revisado de ISO. [27] [28] Un informe de progreso en octubre de 2008 de ISO sobre la revisión de TIFF / EP declaró que la revisión ". Actualmente incluye dos" perfiles de interoperabilidad "," IP 1 "para datos de imagen procesados, utilizando" .TIF " extensión y "IP 2" para datos de imagen "sin procesar", "extensión" .DNG ". [29] Es "IP 2" lo que es relevante aquí. Un informe de progreso en septiembre de 2009 establece que "este formato será similar al DNG 1.3, que sirve como punto de partida para el desarrollo". [30]

DNG ha sido utilizado por desarrolladores de código abierto. [14] El uso por parte de los fabricantes de cámaras varía: las empresas más grandes, como Canon, Nikon, Sony y algunas otras, no utilizan DNG. Las empresas más pequeñas y los fabricantes de cámaras "de nicho" que, de otro modo, podrían tener dificultades para obtener el apoyo de las empresas de software, utilizan con frecuencia DNG como formato de imagen original sin procesar. Pentax usa DNG como una alternativa opcional a su propio formato de imagen sin procesar. Hay 15 o más empresas de este tipo, incluso algunas que se especializan en cámaras de cine. [21] Además, la mayoría de las cámaras de apuntar y disparar de Canon pueden admitir DNG mediante el uso de CHDK.

Canon Raw v2, CR2, se basa principalmente en TIFF [31] y Jpeg ITU-T81 [32] sin pérdidas.

Canon Raw v3, CR3 [33] se basa en el formato de archivo de medios base ISO (ISO / IEC 14496-12), con etiquetas personalizadas y un códec "crx" desconocido.

Para visualizarse o imprimirse, la salida del sensor de imagen de una cámara debe procesarse, es decir, convertirse en una representación fotográfica de la escena y luego almacenarse en un formato de gráficos de trama estándar como JPEG. Este procesamiento, ya sea en la cámara o posteriormente en un convertidor de archivos sin procesar, implica una serie de operaciones, que suelen incluir: [34] [35]

  • decodificación: los datos de imagen de archivos sin procesar se codifican normalmente con fines de compresión, pero también a menudo con fines de ofuscación (por ejemplo, archivos sin procesar de cámaras Canon [36] o Nikon). [37] - interpolando los datos brutos parciales recibidos del sensor de imagen con filtro de color en una matriz de píxeles de colores. eliminación: reemplazo de datos en ubicaciones incorrectas conocidas con interpolaciones de ubicaciones cercanas: teniendo en cuenta la temperatura de color de la luz que se usó para tomar la fotografía: intercambio de detalles por suavidad eliminando pequeñas fluctuaciones, conversión del espacio de color nativo de la cámara definido por el espectral sensibilidades del sensor de imagen a un espacio de color de salida (típicamente sRGB para JPEG) [38] [39] - la luminancia de la escena capturada por los sensores de la cámara y almacenada en el archivo sin procesar (con un rango dinámico de típicamente 10 o más bits) necesita para ser renderizado para obtener un efecto agradable y una visualización correcta en monitores o impresiones de rango dinámico bajo, el renderizado de reproducción de tonos a menudo incluye mapeo de tonos y pasos de compresión gamma separados. - por ejemplo, compresión JPEG

La eliminación de humidificación solo se realiza para los sensores CFA, no es necesaria para los sensores 3CCD o Foveon X3.

Las cámaras y el software de procesamiento de imágenes también pueden realizar un procesamiento adicional para mejorar la calidad de la imagen, por ejemplo:

  • Eliminación de ruido sistemático: sustracción de tramas de polarización y sustracción de corrección de campo plano.
  • corrección óptica: distorsión de la lente, viñeteado, aberración cromática y corrección de franjas de color
  • aumento de la agudeza visual mediante el enmascaramiento de enfoque: aclare las regiones de sombra sin soplar las regiones de iluminación

Cuando una cámara guarda un archivo sin procesar, pospone la mayor parte de este procesamiento. Normalmente, el único procesamiento realizado es la eliminación de píxeles defectuosos (la especificación DNG requiere que los píxeles defectuosos se eliminen antes de crear el archivo [40]). Algunos fabricantes de cámaras realizan un procesamiento adicional antes de guardar los archivos sin procesar, por ejemplo, los astrofotógrafos han criticado a Nikon por aplicar la reducción de ruido antes de guardar el archivo sin procesar. [41]

Algunos formatos sin procesar también permiten la cuantificación no lineal. [42] [43] Esta no linealidad permite la compresión de los datos sin procesar sin una degradación visible de la imagen al eliminar la información invisible e irrelevante de la imagen. Aunque se descarta el ruido, esto no tiene nada que ver con la reducción de ruido (visible). [ cita necesaria ]

Beneficios Editar

Casi todas las cámaras digitales pueden procesar la imagen del sensor en un archivo JPEG utilizando la configuración de balance de blancos, saturación de color, contraste y nitidez que son seleccionados automáticamente o ingresados ​​por el fotógrafo antes de tomar la fotografía. Las cámaras que producen archivos sin procesar guardan estas configuraciones en el archivo, pero posponen el procesamiento. Esto da como resultado un paso adicional para el fotógrafo, por lo que normalmente solo se usa sin procesar cuando se desea un procesamiento por computadora adicional. Sin embargo, raw tiene numerosas ventajas sobre JPEG, tales como:

  • Muchos más tonos de colores en comparación con los archivos JPEG: los archivos sin procesar tienen 12 o 14 bits de información de intensidad por canal (4096-16384 tonos), en comparación con los 8 bits comprimidos por gamma de JPEG (256 tonos).
  • Mayor calidad de imagen. Debido a que todos los cálculos (como la aplicación de corrección de gamma, demostración, balance de blancos, brillo, contraste, etc.) utilizados para generar valores de píxeles (en formato RGB para la mayoría de las imágenes) se realizan en un solo paso en los datos base, los valores de píxeles resultantes será más precisa y exhibirá menos posterización.
  • Omisión de pasos no deseados en el procesamiento de la cámara, incluida la nitidez y la reducción de ruido
  • Las imágenes JPEG normalmente se guardan usando un formato de compresión con pérdida (aunque ahora está disponible una compresión JPEG sin pérdida). Los formatos sin procesar suelen utilizar compresión sin pérdida o compresión con pérdida de alta calidad.
  • Control más fino. El software de conversión sin formato permite a los usuarios manipular más parámetros (como luminosidad, balance de blancos, tono, saturación, etc.) y hacerlo con mayor variabilidad. Por ejemplo, el punto blanco se puede establecer en cualquier valor, no solo en valores preestablecidos discretos como "luz del día" o "incandescente". Además, el usuario normalmente puede ver una vista previa mientras ajusta estos parámetros.
  • El espacio de color se puede configurar como se desee.
  • Se pueden utilizar diferentes algoritmos de demostración, no solo el codificado en la cámara.
  • El contenido de los archivos sin procesar incluye más información y una calidad potencialmente más alta que los resultados convertidos, en los que los parámetros de reproducción son fijos, la gama de colores se recorta y puede haber artefactos de cuantificación y compresión.
  • Las grandes transformaciones de los datos, como el aumento de la exposición de una foto muy subexpuesta, dan como resultado menos artefactos visibles cuando se realizan a partir de datos sin procesar que cuando se realizan a partir de archivos de imagen ya renderizados. Los datos brutos dejan más margen para correcciones y manipulaciones artísticas, sin dar como resultado imágenes con defectos visibles como la posterización.
  • Todos los cambios realizados en un archivo de imagen sin procesar no son destructivos, es decir, solo se cambian los metadatos que controlan la representación para hacer diferentes versiones de salida, dejando los datos originales sin cambios.
  • Hasta cierto punto, la fotografía de formato sin procesar elimina la necesidad de utilizar la técnica HDRI, lo que permite un control mucho mejor sobre el mapeo del rango de intensidad de la escena en el rango tonal de salida, en comparación con el proceso de mapeo automático a JPEG u otro de 8 bits. representación.

Inconvenientes Editar

  • El tamaño del archivo sin procesar de la cámara suele ser de 2 a 6 veces mayor que el tamaño del archivo JPEG.[44] Si bien el uso de formatos sin procesar evita los artefactos de compresión inherentes a JPEG, caben menos imágenes en una tarjeta de memoria determinada. Sin embargo, los grandes tamaños y los bajos precios de las tarjetas de memoria modernas mitigan esto. El disparo en modo ráfaga tiende a ser más lento y más corto debido al tamaño de archivo más grande.
  • La mayoría de los formatos sin procesar implementan compresión de datos sin pérdida para reducir el tamaño de los archivos sin afectar la calidad de la imagen. Pero algunos otros usan la compresión de datos con pérdida donde se realiza la cuantificación y el filtrado de los datos de la imagen. [42] [43] La compresión delta con pérdida de 11 + 7 bits de Sony de datos brutos provoca posterización en determinadas condiciones. [45] Varias cámaras Nikon permiten a los fotógrafos elegir entre compresión sin compresión, compresión sin pérdida o compresión con pérdida para sus imágenes sin procesar. Red Digital Cinema Camera Company introdujo .r3d Redcode Raw con una relación de compresión de 3: 1 a 18: 1 que depende de la resolución y la velocidad de fotogramas. [46]
  • El formato de imagen sin procesar estándar (ISO 12234-2, TIFF / EP) no es ampliamente aceptado. DNG, el candidato potencial para un nuevo formato estándar, no ha sido adoptado por muchas de las principales empresas de cámaras. (Consulte la sección "Estandarización"). Actualmente se utilizan numerosos formatos en bruto diferentes y siguen apareciendo nuevos formatos en bruto, mientras que otros se abandonan. [47]
  • Debido a la falta de una adopción generalizada de un formato sin formato estándar, es posible que se requiera un software más especializado para abrir archivos sin formato que para formatos estandarizados como JPEG o TIFF. Los desarrolladores de software tienen que actualizar con frecuencia sus productos para admitir los formatos sin procesar de las últimas cámaras, pero las implementaciones de código abierto como dcraw lo hacen más fácil.
  • El tiempo empleado en el flujo de trabajo de la imagen es un factor importante a la hora de elegir entre formatos de imagen en bruto y listos para usar. Con el software de edición de fotografías moderno, el tiempo adicional necesario para procesar imágenes sin procesar se ha reducido en gran medida, pero aún requiere un paso adicional en el flujo de trabajo en comparación con el uso de archivos JPEG fuera de la cámara.

Las cámaras que admiten archivos sin procesar generalmente vienen con software propietario para la conversión de sus datos de imagen sin procesar en imágenes RGB estándar. Otros programas y complementos de procesamiento y conversión están disponibles a través de proveedores que han obtenido la licencia de la tecnología del fabricante de la cámara o han realizado ingeniería inversa del formato sin procesar en particular y han proporcionado sus propios algoritmos de procesamiento.

Soporte del sistema operativo Editar

Apple macOS e iOS Editar

En enero de 2005, Apple lanzó iPhoto 5, que ofrecía soporte básico para ver y editar muchos formatos de archivo sin procesar.

En abril de 2005, OS X 10.4 de Apple trajo soporte sin formato al marco ImageIO del sistema operativo, permitiendo el soporte sin formato automáticamente en la mayoría de las aplicaciones de macOS tanto de Apple (como Preview, la aplicación de visualización de imágenes y PDF de macOS, y Aperture, una publicación de fotos). paquete de software de producción para profesionales), así como todas las aplicaciones de terceros que hacen uso de los marcos de ImageIO.

Las actualizaciones semi-regulares de macOS generalmente incluyen soporte actualizado para nuevos formatos sin procesar introducidos en los meses intermedios por los fabricantes de cámaras.

En 2016, Apple anunció que iOS 10 permitiría capturar imágenes sin procesar en hardware seleccionado, y las aplicaciones de terceros podrán editar imágenes sin procesar a través del marco de imagen principal del sistema operativo. [48]

En 2020, Apple lanzó el iPhone 12 Pro y el iPhone 12 Pro Max. Ambos dispositivos son compatibles con Apple ProRAW (a partir de iOS 14.3). Las fotos ProRAW son archivos DNG de 12 bits.

Microsoft Windows Editar

Paquete de códec de cámara de Windows Editar

Microsoft proporciona el paquete de códec de cámara de Windows gratuito para Windows XP y versiones posteriores de Microsoft Windows, para integrar la visualización e impresión de archivos sin procesar en algunas herramientas de Microsoft Windows. [49] Los códecs permiten la visualización nativa de archivos sin procesar de una variedad de cámaras específicas en Windows Explorer / File Explorer y Windows Live Photo Gallery / Windows Photo Gallery, en Windows Vista y Windows 7. [50] En octubre de 2016, Microsoft había no lanzó una versión actualizada desde abril de 2014, que admitía algunas cámaras específicas de los siguientes fabricantes: Canon, Casio, Epson, Fujifilm, Kodak, Konica Minolta, Leica, Nikon, Olympus, Panasonic, Pentax, Samsung y Sony. [50]

Componente de imágenes de Windows (WIC) Editar

Microsoft Windows es compatible con el estándar de códec Windows Imaging Component (WIC). WIC estaba disponible como un programa descargable independiente para Windows XP Service Pack 2 e integrado en Windows XP Service Pack 3, Windows Vista y versiones posteriores. Windows Explorer / File Explorer y Windows Live Photo Gallery / Windows Photo Gallery pueden ver formatos sin procesar para los que están instalados los códecs WIC necesarios. Canon, Nikon, Sony, Olympus y Pentax han lanzado códecs WIC para sus cámaras, aunque algunos fabricantes solo brindan compatibilidad con códecs para las versiones de 32 bits de Microsoft Windows. [51]

Los códecs DNG WIC comerciales también están disponibles en Ardfry Imaging, [52] y otros y FastPictureViewer Professional instala un conjunto de decodificadores de imágenes habilitados para WIC. [53] [54]

Edición de Android

Android Lollipop 5.0, introducido a finales de 2014, puede permitir que los teléfonos inteligentes tomen imágenes sin procesar, lo que resulta útil en situaciones de poca luz. [55]

Software gratuito y de código abierto Editar

    es una herramienta de flujo de trabajo sin formato para macOS, Microsoft Windows, Linux y otros sistemas operativos abiertos similares a Unix. El software presenta procesamiento nativo de punto flotante de 32 bits y una arquitectura de complemento. es un programa que lee la mayoría de los formatos sin procesar y puede ejecutarse en sistemas operativos no compatibles con la mayoría de software comercial (como Unix). LibRaw [56] es una biblioteca API basada en dcraw, que ofrece una interfaz más conveniente para leer y convertir archivos sin procesar. HDR PhotoStudio y AZImage [57] son ​​algunas de las aplicaciones comerciales que utilizan Libraw. Jrawio es otra biblioteca de API, escrita en código Java puro y compatible con la API de E / S de imágenes de Java estándar. es una aplicación avanzada de administración de fotografías digitales para Linux, Microsoft Windows y Mac OS X que admite el procesamiento sin procesar. admite la lectura, escritura y edición de metadatos en archivos de imagen sin procesar. ExifTool admite muchos tipos diferentes de metadatos, incluidos Exif, GPS, IPTC, XMP, JFIF, GeoTIFF, ICC Profile, Photoshop IRB, FlashPix, AFCP e ID3, así como las notas del fabricante de muchas cámaras digitales. , un paquete de software para la manipulación y conversión de imágenes, lee muchos formatos de archivo sin procesar diferentes. [58] ImageMagick está disponible para Linux / Unix, Mac OS, Microsoft Windows y otras plataformas. es un programa de edición de fotografías que ofrece la posibilidad de editar muchos formatos sin procesar de forma nativa. La mayoría de las herramientas son convertidores sin formato, pero LightZone permite al usuario editar un archivo sin formato como si fuera TIFF o JPEG. El proyecto se interrumpió en septiembre de 2011 [59] y se restableció como proyecto de código abierto en diciembre de 2012. Es un desarrollador de formato sin formato. es un desarrollador en bruto que admite los sistemas operativos Linux, OS X y Microsoft Windows. Cuenta con una canalización nativa de punto flotante de 32 bits. es un organizador de imágenes disponible para los principales sistemas operativos con la capacidad de ver y editar imágenes sin procesar y tiene capacidad de carga de redes sociales incorporada. es un frontend que usa dcraw como backend. Se puede utilizar como un complemento de GIMP y está disponible para la mayoría de los sistemas operativos.

Software propietario Editar

Además de los que se enumeran en compatibilidad con el sistema operativo, el software comercial que se describe a continuación admite formatos sin formato.

Convertidores en bruto dedicados Editar

Los siguientes productos se lanzaron como software de procesamiento sin procesar para procesar una amplia gama de archivos sin procesar, y tienen este como su objetivo principal:

Otros Editar

    es un software de edición y gestión de fotografías que admite los formatos sin procesar de 21 fabricantes de cámaras. [61] admite formatos sin procesar (a partir de la versión CS2). admite formatos sin procesar. DaVinci Resolve
  • Visor DNG es un visor gratuito (32 bits) para Microsoft Windows basado en dcraw. El visor muy simple se instala como Visor de imágenes RAW, admite algunas operaciones sin pérdida y puede guardar imágenes sin procesar como BMP, JPEG, PNG o TIFF. [62]
  • FastRawViewer es un visor sin formato dedicado que se ejecuta en Mac y Microsoft Windows, y actualmente afirma ser compatible con todos los formatos sin formato excepto Foveon. [63] admite formatos sin procesar. es un editor básico freeware / shareware con soporte para archivos sin procesar. el soporte para formatos sin procesar se basa en dcraw. [cita necesaria] contiene soporte sin formato, aunque como en el caso de la mayoría de los editores, las actualizaciones del programa pueden ser necesarias para lograr compatibilidad con los formatos sin formato más nuevos a medida que se lanzan. admite formatos sin procesar. (desarrollo interrumpido) es un editor y organizador gratuito de Google. Puede leer y mostrar muchos formatos sin procesar, pero al igual que iPhoto, Picasa proporciona solo herramientas limitadas para procesar los datos en un archivo sin procesar.
  • Silver B & ampW Photo Converter [64] ofrece soporte básico para editar formatos de archivo sin procesar compatibles con macOS. admite formatos sin procesar.
  • Utiful Photo Organizer es una aplicación de organización de fotos para iPhone y iPad que admite formatos sin procesar, es decir, puede almacenar y mostrar formatos sin procesar, pero también exportarlos en el formato original sin procesar.
  • El soporte de Wild Media Server (UPnP, DLNA, HTTP) [65] para formatos sin procesar se basa en libraw. es un software como servicio que admite la conversión de archivos sin formato a otros formatos. [66] El soporte para formatos sin formato se basa principalmente en dcraw.

Aplicaciones basadas en navegador HTML5 Editar

Apareció una nueva clase de herramientas de procesamiento de archivos sin procesar con el desarrollo de aplicaciones de Internet ricas en HTML5.

  • .3fr (Hasselblad)
  • .ari (Arri Alexa) .srf.sr2 (Sony)
  • .bay (Casio)
  • .braw (Diseño de Blackmagic)
  • .cri (Cintel) .cr2 .cr3 (Canon)
  • .cap .iiq .eip (Phase_One)
  • .dcs .dcr .drf .k25 .kdc (Kodak) (Adobe)
  • .erf (Epson)
  • .fff (Imacon / Hasselblad sin formato)
  • .gpr (GoPro)
  • .mef (Mamiya) (Minolta, Agfa)
  • .mos (hoja)
  • .mrw (Minolta, Konica Minolta)
  • .nef .nrw (Nikon) (Olympus)
  • .pef .ptx (Pentax)
  • .pxn (Logitech)
  • .R3D (Cine digital RED)
  • .raf (Fuji)
  • .raw .rw2 (Panasonic)
  • .raw .rwl .dng (Leica)
  • .rwz (Rawzor)
  • .srw (Samsung)
  • .x3f (Sigma)

Con menos frecuencia, sin procesar también puede referirse a un formato de archivo de imagen genérico que contiene solo valores de color de píxeles. Por ejemplo, los archivos "Photoshop Raw" (.raw) contienen datos RGB de 8 bits por canal en orden de píxeles de arriba a abajo y de izquierda a derecha. Las dimensiones deben ingresarse manualmente cuando dichos archivos se vuelven a abrir, o se asume una imagen cuadrada. Debido a su simplicidad, este formato es muy abierto y compatible, aunque limitado por su falta de metadatos y codificación de longitud de ejecución. Especialmente en fotografía y diseño gráfico, donde la gestión del color y las gamas ampliadas son importantes y las imágenes grandes son comunes.


Investigación de exoplanetas

Tengo una amplia gama de intereses de investigación, desde estudios de tránsito hasta modelado de estructuras internas de planetas gigantes.

Encuestas de tránsito

Trabajo con exoplanetas en tránsito tanto de estudios terrestres (WASP y NGTS) como de las misiones espaciales K2 y TESS. Los planetas que transitan por estrellas brillantes nos brindan oportunidades únicas para caracterizar completamente los sistemas planetarios, ya que podemos determinar tanto la masa como el radio del planeta, así como investigar la atmósfera a través de espectroscopía de transmisión.

Velocidad radial

Trabajando principalmente con HARPS en el telescopio ESO de 3,6 m y CORALIE en el telescopio suizo Euler de 1,2 m, hice un seguimiento de los candidatos a planetas en tránsito. Espero ampliar nuestra cobertura de longitud de onda con el espectrógrafo NIRPS de alta resolución de infrarrojo cercano que se unirá a HARPS en 2021.

Transición entre planetas similares a Neptuno y Saturno

Si un planeta gigante resulta ser similar a Neptuno hielo gigante de un Saturno gas Se cree que el gigante está determinado por una etapa de formación de planetas llamada acumulación de gas descontrolada. Caracterizar este tipo de planetas en detalle es clave para nuestra comprensión de la formación de planetas.


TESS capta el estallido de un cometa con un detalle sin precedentes


Utilizando datos del Satélite de estudio de exoplanetas en tránsito (TESS) de la NASA, los astrónomos de la Universidad de Maryland (UMD), en College Park, Maryland, capturaron una secuencia de imágenes clara de principio a fin de una emisión explosiva de polvo, hielo y gases durante la aproximación cercana del cometa 46P / Wirtanen a finales de 2018.

Esta es la observación más completa y detallada hasta la fecha de la formación y disipación de un estallido de cometas que ocurre naturalmente. Los miembros del equipo informaron sus resultados en la edición del 22 de noviembre de The Astrophysical Journal Letters.

"TESS pasa casi un mes a la vez capturando imágenes de una porción del cielo. Sin interrupciones diurnas o nocturnas y sin interferencia atmosférica, tenemos un conjunto de observaciones muy uniformes y de larga duración", dijo Tony Farnham, científico investigador en el Departamento de Astronomía de la UMD y autor principal del artículo de investigación. "A medida que los cometas orbitan alrededor del Sol, pueden atravesar el campo de visión de TESS. Wirtanen fue una alta prioridad para nosotros debido a su acercamiento cercano a fines de 2018, por lo que decidimos usar su apariencia en las imágenes de TESS como un caso de prueba para ver lo que pudimos sacar de ella. ¡Lo hicimos y quedamos muy sorprendidos! "

"Si bien TESS es una potencia para descubrir planetas que orbitan estrellas brillantes cercanas, su estrategia de observación permite mucha ciencia adicional emocionante", dijo el científico del proyecto TESS Padi Boyd del Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland. "Dado que los datos de TESS se hacen públicos rápidamente a través del Archivo Mikulski de Telescopios Espaciales (MAST) de la NASA, es emocionante ver a los científicos identificar qué datos les interesan y luego hacer todo tipo de ciencia fortuita adicional más allá de los exoplanetas".

La actividad normal de los cometas es impulsada por la luz solar que vaporiza los hielos cerca de la superficie del núcleo, y los gases que salen arrastran el polvo del núcleo para formar la coma. Sin embargo, se sabe que muchos cometas experimentan estallidos espontáneos ocasionales que pueden aumentar significativamente, pero temporalmente, la actividad del cometa. Actualmente no se sabe qué causa los estallidos, pero están relacionados con las condiciones en la superficie del cometa. Se han propuesto varios mecanismos desencadenantes potenciales, incluido un evento térmico, en el que una ola de calor penetra en una bolsa de hielos altamente volátiles, lo que hace que el hielo se vaporice rápidamente y produzca una explosión de actividad, y un evento mecánico, donde un acantilado colapsa, exponiendo el hielo fresco a la luz solar directa. Por lo tanto, los estudios del comportamiento del estallido, especialmente en las primeras etapas de brillo que son difíciles de capturar, pueden ayudarnos a comprender las propiedades físicas y térmicas del cometa.

Aunque Wirtanen se acercó más a la Tierra el 16 de diciembre de 2018, el estallido ocurrió antes en su aproximación, comenzando el 26 de septiembre de 2018. El brillo inicial del estallido ocurrió en dos fases distintas, con un destello de una hora seguido de un destello más gradual. segunda etapa que continuó creciendo más brillante durante otras 8 horas. Esta segunda etapa probablemente fue causada por la propagación gradual del polvo de cometa del estallido, lo que hace que la nube de polvo refleje más luz solar en general. Después de alcanzar el brillo máximo, el cometa se desvaneció gradualmente durante un período de más de dos semanas. Debido a que TESS toma imágenes compuestas detalladas cada 30 minutos, el equipo pudo ver cada fase con un detalle exquisito.

"Con 20 días de imágenes muy frecuentes, pudimos evaluar los cambios en el brillo con mucha facilidad. Para eso se diseñó TESS, para realizar su trabajo principal como topógrafo de exoplanetas", dijo Farnham. "No podemos predecir cuándo ocurrirán los estallidos de cometas. Pero incluso si de alguna manera tuviéramos la oportunidad de programar estas observaciones, no podríamos haberlo hecho mejor en términos de tiempo. El estallido ocurrió pocos días después de que comenzaran las observaciones".

El equipo ha generado una estimación aproximada de la cantidad de material que pudo haber sido expulsado en el estallido, alrededor de un millón de kilogramos (2,2 millones de libras), lo que podría haber dejado un cráter en el cometa de unos 20 metros (unos 65 pies) de ancho. Un análisis más detallado de los tamaños de partículas estimados en la cola de polvo puede ayudar a mejorar esta estimación. La observación de más cometas también ayudará a determinar si el brillo en múltiples etapas es raro o común en los estallidos de cometas.

TESS también ha detectado por primera vez el rastro de polvo de Wirtanen. A diferencia de la cola de un cometa, el rocío de gas y polvo fino que sigue detrás de un cometa, creciendo a medida que se acerca al sol, el rastro de un cometa es un campo de escombros más grande que traza la trayectoria orbital del cometa mientras viaja alrededor del sol. A diferencia de una cola, que cambia de dirección cuando es impulsada por el viento solar, la orientación del sendero se mantiene más o menos constante a lo largo del tiempo.

"El rastro sigue más de cerca la órbita del cometa, mientras que la cola se desplaza de él, ya que es empujado por la presión de la radiación del sol. Lo significativo del rastro es que contiene el material más grande", dijo Michael Kelley, un científico investigador asociado en el Departamento de Astronomía de la UMD y coautor del artículo de investigación. "El polvo de la cola es muy fino, muy parecido al humo. Pero el polvo del rastro es mucho más grande, más parecido a arena y guijarros. Creemos que los cometas pierden la mayor parte de su masa a través de sus rastros de polvo. Cuando la Tierra se encuentra con el rastro de polvo de un cometa, conseguir lluvias de meteoritos ".

Si bien el estudio actual describe los resultados iniciales, Farnham, Kelley y sus colegas esperan más análisis de Wirtanen, así como de otros cometas en el campo de visión de TESS. "Tampoco sabemos qué causa los arrebatos naturales y eso es, en última instancia, lo que queremos encontrar", dijo Farnham. "Hay al menos otros cuatro cometas en la misma área del cielo donde TESS hizo estas observaciones, con un total de 50 cometas esperados en los primeros dos años de datos de TESS. Hay mucho que puede surgir de estos datos. "

TESS es una misión del Explorador de Astrofísica de la NASA dirigida y operada por el MIT en Cambridge, Massachusetts, y administrada por el Centro de Vuelo Espacial Goddard de la NASA. Los socios adicionales incluyen Northrop Grumman, con sede en Falls Church, el Centro de Investigación Ames de la NASA en Virginia en Silicon Valley de California, el Centro Harvard-Smithsonian de Astrofísica en Cambridge, el Laboratorio Lincoln del MIT de Massachusetts y el Instituto de Ciencias del Telescopio Espacial en Baltimore. Más de una docena de universidades, institutos de investigación y observatorios de todo el mundo participan en la misión.


Astrobites en AAS 231: Día 1

¡Bienvenido a la reunión de invierno de la Sociedad Astronómica Estadounidense (AAS) en National Harbor, Maryland! Astrobites asistirá a la conferencia como de costumbre, y aquí informaremos los aspectos más destacados de cada día. Si desea ver actualizaciones más oportunas durante el día, le recomendamos que busque el hashtag # aas231 en Twitter. Publicaremos una vez al día durante la reunión, así que asegúrese de visitar el sitio con frecuencia para conocer todas las noticias.

Astrobites en la orientación de pregrado.

Recepción de pregrado

¡Nos encantó poder charlar con tantos estudiantes en la orientación y recepción de pregrado el lunes por la noche! Fue genial escuchar acerca de sus proyectos de investigación, sus metas para el futuro y las cosas que le apasionan.Siga siendo increíble, recuerde que queremos saber de usted sobre su investigación y háganos saber si hay algo que podamos hacer para ayudarlo a que su entrada y progresión en el campo de la astronomía sea más fácil.

Conferencia de la Fundación Kavli: El nuevo Júpiter: resultados de la misión Juno (por Kerry Hensley)

Scott Bolton del Southwest Research Institute, que se desempeña como investigador principal de la misión Juno de la NASA, reflexionó que antes de sus días de estudiante de posgrado, parecía que los científicos sabían que todos los resultados se informaban con tanta confianza que parecía que no quedaban acertijos por resolver. Afortunadamente, eso está lejos de ser el caso, y la misión de Juno es un gran ejemplo de cómo los nuevos resultados pueden derribar creencias arraigadas y abrir temas antiguos a nuevas ideas.

Juno se acerca a Júpiter una vez cada 53 días (la aproximación más cercana se conoce como perijove), girando unos pocos miles de kilómetros por encima de las cimas de las nubes, viajando de polo a polo en aproximadamente dos horas y avanzando constantemente en longitud para hacer un mapa de el planeta. La misión Juno ha puesto patas arriba las teorías establecidas sobre la atmósfera, la estructura interior y el campo magnético de Júpiter. Por ejemplo, hay más rayos en Júpiter de lo que nadie anticipó, especialmente en el hemisferio norte. Las nubes blancas, que posiblemente contienen hielo de amoníaco, son omnipresentes. El campo magnético tiene componentes de orden superior más fuertes de lo esperado e inesperadamente alcanza un pico de fuerza más cerca del ecuador que de los polos. El rastro auroral de la luna volcánica Io tiene una cola partida. Además de estos descubrimientos individuales, la misión Juno destaca el hecho de que los cuatro focos aparentemente separados de la misión (orígenes, interior, atmósfera y magnetosfera) están más interconectados de lo que se pensaba originalmente.

Ninguna presentación de Juno podría estar completa sin algunas magníficas imágenes de JunoCam. (¡Puede acceder a imágenes sin procesar de JunoCam y evaluar dónde debería mirar la cámara en el sitio web de JunoCam!) Después de un largo acercamiento a Júpiter, el primer vistazo a las formaciones de nubes en los polos de Júpiter no decepcionó, el polo sur está salpicado de tormentas dispuestos en un pentágono, mientras que el polo norte luce un octágono tormentoso. Con cada perijove sucesivo trayendo resultados nuevos e intrigantes, Júpiter seguramente tiene más sorpresas y más derrotas teóricas reservadas. El Dr. Bolton cerró la sesión con un mensaje para la generación actual de jóvenes investigadores: ¡Sigan trabajando en las teorías y no crean a sus profesores!

Conferencia de prensa: Astronomía desde la estratosfera (por Susanna Kohler)

¡Estamos en la primera conferencia de prensa de # aas231, Astronomía desde la estratosfera! pic.twitter.com/L0qayJrJQP

& mdash astrobites (@astrobites) 9 de enero de 2018

SOFIA: Resulta que no es una idea loca. [NASA / Jim Ross]

Por primera vez, Kimberly Ennico (NASA Ames) brindó una amplia descripción de SOFIA y sus diferentes instrumentos. La instrumentación de SOFIA es renovable: el equipo intercambia regularmente el instrumento que vuela en sus recorridos de observación. Los anuncios de hoy se centraron en los resultados iniciales del nuevo instrumento Cámara-Plus de banda ancha aerotransportada de alta resolución (HAWC +) y los resultados del instrumento Receptor alemán de astronomía en frecuencias de Terahertz (GREAT).

El instrumento HAWC + proporciona imágenes de infrarrojo lejano y datos de polarimetría, lo que nos permite explorar la estructura de los campos magnéticos galácticos. Enrique López Rodríguez (USRA / SOFIA Science Center) presentó las primeras detecciones de emisión polarizada de infrarrojo lejano de galaxias externas, que se puede utilizar para inferir la estructura a gran escala de los campos magnéticos galácticos. En particular, mostró observaciones contrastantes de dos galaxias diferentes: M82, una galaxia en forma de estrella con grandes flujos de salida magnetizados, y NGC 1068, una galaxia espiral masiva en la que podemos ver un brazo espiral magnetizado.

Rodríguez nos muestra los datos de polarización de SOFIA de dos galaxias diferentes, lo que revela cómo sus campos magnéticos a gran escala se comportan de manera diferente. # aas231 pic.twitter.com/mgKib0jusu

& mdash astrobites (@astrobites) 9 de enero de 2018

B-G Andersson (SOFIA / USRA) dio una descripción general de algunas de las teorías detrás de la polarización y cómo rastrea los campos magnéticos. En un modelo, teoría del par de alineación radiativa , la radiación de las estrellas golpea los granos de polvo y los hace girar. Una vez que los granos giran, interactúan con los campos magnéticos, lo que hace que los granos se alineen. Varias mediciones de polarización recientes realizadas con SOFIA / HAWC + parecen apoyar esta teoría.

La evidencia de esto de las observaciones de HAWC + fue presentada por Fabio Santos (Universidad Northwestern), explorando campos magnéticos dentro galaxias. SOFIA / HAWC + observó una de las regiones de formación de estrellas más cercanas a nosotros, Rho Ophiuchi, y demostró que la polarización de los granos de polvo en esta nube interestelar depende de la densidad dentro de la nube. Estas observaciones apoyan la teoría de la alineación radiativa: los granos de polvo en las afueras de la nube reciben más luz solar y se alinean con los campos magnéticos más fácilmente, mientras que los granos de polvo en el interior de las nubes densas reciben menos luz solar y no se alinean de manera efectiva.

Elizabeth Tarantino (Universidad de Maryland) completó la sesión con una discusión de lo que las observaciones de SOFIA / GREAT han revelado sobre cómo el gas se enfría para formar nubes y colapsar en las estrellas que observamos hoy. La increíble resolución del espectrómetro GREAT nos permite realizar mediciones de carbono ionizado dentro de las regiones de formación de estrellas de otras galaxias. A partir de estas mediciones, hemos determinado que tanto el gas atómico como el molecular contribuyen al enfriamiento del gas, pero en diferentes proporciones, dependiendo de qué tan activamente la región esté formando estrellas. Estas observaciones son cruciales para comprender las etapas iniciales de formación estelar.

La nota de prensa correspondiente a esta rueda de prensa se puede encontrar aquí.

Charla plenaria: ¿Una nueva medida de la tasa de expansión del universo, evidencia de una nueva física? (por Nora Shipp)

Adam Riess (Universidad Johns Hopkins) es un experto en medir con precisión la expansión del universo. De hecho, ganó un Premio Nobel en 2011 por su papel en la demostración de que el universo no solo se está expandiendo, sino que también se está acelerando en su expansión. En estos días trabaja para obtener una medida lo más precisa posible de la tasa de expansión en el universo local.

Participación de Adam Riess & # 8217s charla sobre la expansión del universo. [Kevin Marvel / AAS]

Riess señaló que "no es un descubrimiento hasta 5 sigma", sin embargo 3.4 sigma es ciertamente interesante, y parece que Riess y su grupo tienen planes interesantes para reducir los errores en sus mediciones. De hecho, Riess dijo que su objetivo es pasar de un 2,4% a un 1% de errores en la medición local de H0 en los próximos 5 años, antes de que finalice el HST. Un componente importante de esto es la incorporación de las próximas medidas de movimiento adecuadas de Gaia.

Aunque todavía está trabajando para mejorar su medición antes de aceptar completamente la tensión H0, Riess hizo algunas sugerencias sobre posibles explicaciones físicas para la diferencia entre el valor local de H0 y el valor determinado por el CMB. Una posibilidad es una nueva especie de partícula relativista. Riess dijo que sus colegas físicos de partículas no tienen problemas para inventar nuevas partículas sin alterar la física aceptada. También es posible que la materia oscura no esté completamente libre de colisiones. Las interacciones entre las partículas de materia oscura y la radiación en el universo temprano podrían dar lugar a diferencias en H0.

Este es un momento emocionante para la cosmología: ¡son resultados inesperados como esta discrepancia los que revelan los nuevos conocimientos más emocionantes sobre nuestro universo!

Puede leer más sobre Riess y su trabajo en una entrevista de Amber Hornsby.

Seminario para escritores científicos: Satélite de exploración de exoplanetas en tránsito (TESS) de la NASA (por Susanna Kohler)

Artista & # 8217s ilustración de TESS y un sistema exoplanetario en tránsito. [MIT]

La cartera de misiones no termina cuando TESS descubre objetos de interés. Sara Seager (Instituto de Tecnología de Massachusetts) describió cómo estos objetos luego se envían al programa de seguimiento TESS, que involucra a cientos de personas en todo el mundo. Seager discutió los resultados esperados de TESS para los descubrimientos de planetas: podemos encontrar alrededor de 70 Tierras, cientos de súper-Tierras y miles de sub-Neptunes. Los planetas descubiertos con TESS orbitarán estrellas brillantes, lo que los convierte en excelentes candidatos para el seguimiento con observatorios como el telescopio espacial James Webb para explorar sus atmósferas.

Sara Seager está discutiendo lo que podemos esperar ver con TESS. Las simulaciones predicen observaciones de más de 500 planetas pequeños (Tierra y súper-Tierra). # aas231 pic.twitter.com/UsRhAQFwu6

& mdash astrobites (@astrobites) 9 de enero de 2018

Padi Boyd (NASA Goddard Space Flight Center) proporcionó a continuación una descripción general del programa de investigadores invitados de TESS, que acaba de completar la revisión por pares de su primer ciclo de propuestas, recibiendo más de 140 propuestas de la comunidad astronómica. El gran campo de visión de TESS y el monitoreo de alta cadencia se prestan bien a una variedad de proyectos, como explorar la variabilidad en las estrellas de las Pléyades, buscar supernovas en etapas muy tempranas y explorar las contrapartes electromagnéticas de las señales de ondas gravitacionales.

Kepler frente a TESS. [TESS / Elisa Quintana]

3.000 años luz de distancia, TESS será mucho más perdedor, en

300 años luz de distancia en promedio. El campo de visión de TESS cubre un ángulo sólido que es

20 veces el tamaño de Kepler, y el objetivo de la misión es específicamente buscar planetas pequeños que transiten por estrellas brillantes, que luego se pueden seguir con otros telescopios actuales y futuros para aprender más sobre las propiedades de los planetas.

Podemos esperar el lanzamiento de TESS en los próximos meses y tenemos grandes esperanzas en su productividad. Aunque la misión nominal es de solo 2 años, Ricker señala que la misión no estará limitada por bienes fungibles, ¡podría durar varias décadas en órbita si la NASA decide continuar financiándola! No sé ustedes, pero no puedo esperar a ver qué nos muestra TESS.

Conferencia de prensa: Una sopa de letras de ciencia de SDSS / APOGEE / BOSS / MaNGA (por Chris Lovell)

Maestros Karen (Consorcio de Investigación Astrofísica / SDSS-IV), portavoz de SDSS-IV, dio inicio a esta conferencia de prensa sobre el Sloan Digital Sky Survey con una descripción general de esta cuarta iteración del programa, junto con un adelanto de algunas de las interesantes ciencias para provienen de la siguiente iteración, SDSS-V.

Estamos emocionados de estar en @sdssurveys # aas231 Conferencia de prensa: Una sopa de letras de ciencia de SDSS (APOGEE / eBOSS / MaNGA) pic.twitter.com/b4hWHBWsYE

& mdash Carnegie Astronomy (@CarnegieAstro) 9 de enero de 2018

A principios del siglo XIX, Henrietta Leavitt estaba estudiando estrellas variables cefeidas, que oscilan en tamaño y luminosidad con un período regular. Señaló que el período estaba relacionado con la luminosidad de la estrella, lo que hace que estas estrellas sean excelentes para medir distancias. Lamentablemente, fue solo después de su muerte que se reconoció la contribución de Leavitt, por lo que para corregir esto, la AAS ha decidido recientemente nombrar esta relación como la ley de Leavitt. Se ha trabajado mucho en la relación desde entonces, pero un aspecto que todavía está mal limitado es cómo el composición de la estrella afecta la ley de Leavitt. Katherine Hartman (Pomona College) y Rachel Beaton (Universidad de Princeton) presentó observaciones de cefeidas del estudio del Experimento de Evolución Galáctica del Punto Apache (APOGEE), y encontró que las mediciones de la composición de estas estrellas dan resultados consistentes sin importar en qué punto del ciclo se observan. Esto es genial porque significa que, en el futuro, solo necesitamos una única observación de una cefeida para medir su composición, en lugar de observaciones durante todo el ciclo.

"Tuve mucha suerte de tener muchos más datos de los que tenía Henrietta Leavitt gracias a @APOGEEsurvey". -Katherine Hartman de @pomonacollege que trabajó con nosotros @CarnegieAstro pic.twitter.com/G0PBEWbqPf

& mdash Carnegie Astronomy (@CarnegieAstro) 9 de enero de 2018

A continuación, Robert F. Wilson (Universidad de Virginia) demostró el poder de combinar conjuntos de datos de diferentes observatorios, en este caso mediciones del contenido de hierro de las estrellas del instrumento APOGEE combinadas con mediciones de exoplanetas del telescopio espacial Kepler. El resultado del título es que Las estrellas ricas en hierro tienden a albergar planetas con períodos más cortos. . Un simple aumento del 25% en el contenido de hierro puede tener un efecto significativo en el período planetario promedio, lo cual es intrigante ya que el hierro constituye solo alrededor del 2% de la masa total de su estrella promedio de la secuencia principal. El mecanismo físico que conduce a este efecto aún es incierto, pero Robert propuso un par de explicaciones físicas: o los discos protoplanetarios ricos en hierro conducen a la formación de planetas en órbitas más estrechas, o tales sistemas hacen que los planetas migren hacia adentro desde el disco exterior.

Resumen de la charla de Robby, además de nuestro bonito gráfico de nota de prensa de @APOGEEsurvey @sdssurveys. (¡Gracias a mi familia por los comentarios para hacerlo! :)) # aas231 pic.twitter.com/9MZokH5kjI

& mdash Johanna (@johannateske) 9 de enero de 2018

Los agujeros negros supermasivos se encuentran en el centro de casi todas las galaxias y se cree que tienen un gran impacto en las propiedades de sus galaxias anfitrionas. Por lo tanto, medir sus masas a lo largo del tiempo cósmico es clave, pero increíblemente difícil. La próxima charla de Catherine Grier (Universidad Estatal de Pensilvania) presentó los resultados del espectrógrafo BOSS que utiliza una técnica llamada mapeo de reverberación para medir estas masas. En resumen, la luz del agujero negro en acreción se ve reflejada en el gas en el disco de acreción en tiempo real al estudiar esta luz, podemos medir su velocidad de rotación, que se puede utilizar para inferir la masa del agujero negro en el centro. Lo sorprendente de este estudio es que miden las masas de 849 agujeros negros hasta hace 8 mil millones de años, una muestra mucho más grande que se remonta mucho más atrás en el tiempo que los estudios anteriores.

Siguiendo el tema de los agujeros negros supermasivos, Karen Masters presentó evidencia de estos objetos en galaxias enanas que no forman estrellas. Su equipo utilizó los resultados de la encuesta MaNGA para observar la distribución de estrellas y gas en estas galaxias silenciosas y de baja masa, y encontró un resultado intrigante: no se mueven juntas. Esto sugiere que algo está expulsando el gas, un proceso conocido como retroalimentación. Afortunadamente, MaNGA proporciona otra pieza al rompecabezas: el estado de ionización del gas. El estado de ionización es muy alto en el gas que sale de estas galaxias enanas, lo que sugiere que la retroalimentación proviene del agujero negro central, en lugar de las estrellas. No se esperaba que los agujeros negros masivos fueran un motor importante de la evolución en las galaxias de baja masa, por lo que estos resultados presentan un desafío a la teoría.

Todos estos comunicados de prensa están disponibles en el sitio web de SDSS.

Conferencia del Premio Doggett: Cosas tangibles de la astronomía estadounidense (por Kerry Hensley)

Los astrónomos están enamorados de las cosas inmateriales: fotones, campos magnéticos, ondas gravitacionales… Pero nuestro romance con lo etéreo es posible gracias al material: telescopios y detectores, naves espaciales y espectrómetros. El cuidadoso tratamiento que exigen los delicados y envejecidos instrumentos astronómicos que datan de hace cientos de años plantea la pregunta: ¿por qué deberíamos preocuparnos por documentar y preservar los artefactos obsoletos de la historia de la astronomía? Dra. Sara Schechner , curador de la Colección de Instrumentos Científicos Históricos de la Universidad de Harvard, respondió a esta pregunta con ejemplos de parafernalia astronómica a lo largo de la historia y el efecto que los eventos astronómicos tienen en la sociedad en su conjunto.

Señaló que los instrumentos y textos obsoletos pueden proporcionar información sobre cómo la gente veía la astronomía en el pasado. Por ejemplo, los almanaques e instrumentos del siglo XVII reflejaban el estrecho parentesco entre la astronomía y la religión en esa época, la astronomía aún no se había despojado de sus asociaciones teológicas (ya veces siniestras). Después de que el eclipse solar de 1684 provocó la reprogramación del comienzo de la Universidad de Harvard (un presagio tan malo no debería coincidir con un día tan auspicioso), el presidente de Harvard, John Rogers, murió repentinamente el día del eclipse, confirmando el evento astronómico como un presagio de la perdición. En 1759, sin embargo, el primer regreso previsto del cometa Halley fue recibido con asombro.

Las computadoras femeninas del Observatorio de la Universidad de Harvard.

Los materiales astronómicos también pueden reflejar otros cambios sociales. Las placas fotográficas de vidrio evocan recuerdos de las mujeres "computadoras" del Observatorio de la Universidad de Harvard. Brillantes pero mal pagadas, las mujeres del Observatorio de Harvard clasificaron cientos de miles de estrellas y desarrollaron el esquema de tipificación espectral que todavía se usa en la actualidad. En particular, Henrietta Swan Leavitt formuló la Ley de Leavitt, una conexión entre el período de pulsación de una variable cefeida y su luminosidad, que fue utilizada por Edwin Hubble para su descubrimiento de la expansión del universo. Si bien el trabajo de las computadoras de Harvard avanzó el estatus de las mujeres en la astronomía, su éxito no necesariamente hizo avanzar todos los anuncios de telescopios femeninos dirigidos a astrónomos masculinos en la década de 1960 todavía presentaban mujeres elegantes acariciando los barriles de los telescopios, mostrando cómo los materiales astronómicos pueden reflejar actitudes hacia las mujeres. tiempo extraordinario.

Por último, los materiales históricos también pueden resaltar la afinidad del público por la astronomía. Desde los esfuerzos de los astrónomos aficionados para rastrear satélites en órbita terrestre en la década de 1950 a través del proyecto Moonwatch hasta los anunciantes que utilizan el encanto de las estrellas para vender sus productos, el romance del público con las estrellas está bien documentado en artefactos históricos. La Dra. Schechner resumió su charla diciendo que aprender sobre nuestro pasado nos ayuda a vivir críticamente en el presente desde la recepción de la ciencia por parte del público hasta las opiniones hacia las mujeres, los artefactos astronómicos son una lente a través de la cual podemos evaluar los cambios sociales a través del tiempo.

Puede leer más sobre Schechner y su trabajo en una entrevista de Caroline Huang.

Lección del premio de la medalla RAS: El efecto de la estructura no lineal en los observables cosmológicos (por Caroline Huang)

Si alguna vez toma un curso de astronomía que cubra algo de cosmología, probablemente una de las primeras cosas que aprenderá es el principio cosmológico: la suposición de que la materia se distribuye de manera isotrópica y homogénea a gran escala. Una versión algo menos general de esto, el principio copernicano, dice que no vivimos en un lugar especial del universo. Este es uno de los supuestos más básicos integrados en Lambda-CDM, el modelo líder actual que describe el universo.

Sin embargo, la verdad es que no vivimos en un universo perfectamente isotrópico y homogéneo, y que estas perturbaciones de densidad pueden (o no) tener efectos sobre lo que observamos cuando intentamos estudiar cosmología. Por ejemplo, las lentes gravitacionales hacen que los objetos detrás de densidades excesivas se vean más brillantes y los objetos detrás de densidades inferiores se vean más tenues. El diagrama de Hubble de las supernovas de Tipo Ia asume que no existe un sesgo de flujo de las lentes gravitacionales, pero los teóricos en realidad han ido y venido sobre qué tipo de efectos podríamos ver durante más de medio siglo. En su conferencia plenaria, Profesor Nick Kaiser (Universidad de Hawaii) discutió las dificultades de calcular la distancia como una función del corrimiento al rojo y las diversas conclusiones a las que han llegado los cosmólogos con el tiempo con respecto al efecto de la falta de homogeneidad en observables como las supernovas de Tipo Ia.

Una forma de pensar en este problema es considerar que nuestras suposiciones sobre isotropía y homogeneidad nos llevan a concluir que una superficie de desplazamiento al rojo constante sería una esfera. Si bien esto es cierto para algo que es perfectamente isotrópico y homogéneo, cuando se tienen subdensidades y sobredensidades de materia incluso pequeñas, este no es el caso. Dado que el universo es casi isotrópico y homogéneo, sólo habría perturbaciones muy pequeñas, pero eso provocaría que la superficie de corrimiento al rojo constante se pareciera a la superficie de una pelota de golf: casi esférica, pero con arrugas. Dado que esto podría hacer que veamos un sesgo de flujo, podría tener un efecto en las cosas que medimos, como la constante de Hubble.

¿Qué tan grandes son estos efectos? En la sesión de preguntas y respuestas, Kaiser dijo que no está claro exactamente qué tan grandes pueden ser estos efectos, pero que sí cree que es poco probable que puedan explicar la diferencia entre el CMB y las mediciones de la constante local de Hubble.


Ver el vídeo: Rita Segato Reflexiones para comprender las estructuras de la violencia contra las mujeres. Feb 21 (Octubre 2022).