sábado, 16 de noviembre de 2013

Nikon Df


Tras unas intensas semanas de rumores, se ha hecho oficial la llegada al mundo de la Nikon Df, una curiosa cámara que llama la atención en primer lugar por su diseño completamente “retro“ pero también por la apuesta por mantener el alma réflex pese a que las sin espejo son las que se llevan ahora todos los focos.
Efectivamente la Nikon Df es una cámara réflex, con sensor de formato completo y precio no al alcance de cualquiera: casi 3.000 euros con un 50 mm f1.8. Pasemos a conocer todos sus secretos.

Nikon Df, una réflex de formato completo muy retro

Si te haces con una de las nuevas Nikon Df y sales a la calle, ten por seguro que no pasarás desapercibido. Seguramente un fotógrafo con una enorme réflex y varios objetivos será menos observado que tú con la nueva Nikon Df.
Y es que su diseño inspirado en las F2 y F3 de la compañía llama poderosamente la atención. La Nikon Df tiene un cuerpo sellado fabricado en aleación de magnesio, pesa un poco más de 700 gramos (ligera para ser una réflex, pero pesada si quiere competir con las compactas de gama altísima de hoy en día) y desde los diales de control (para manejar sin menús la sensibilidad ISO, la compensación de exposición, el modo de exposición y el modo de disparo) hasta la posibilidad de “atarle” un disparador remoto nos llevan al pasado de forma irremediable.


Pero volvamos a sus datos técnicos. Esta Nikon Df es una réflex, con su espejo y pentaprisma, que incorpora un sensor de tamaño completo con resolución de 16 megapíxeles y que es el mismo utilizado en la Nikon D4.
El enfoque automático es de 39 puntos, la ISO puede ajustarse hasta 204.800 y la ráfaga puede alcanzar las 5.5 fotos por segundo. A ello contribuye el uso del procesador EXPEED 3.

Sin vídeo a la vista

Aunque con el manejo a la vieja usanza no requeriremos de la pantalla para manejar esta Nikon Df, la compañía nipona le ha colocado una pantalla trasera de 3.2 pulgadas y casi un millón de píxeles de resolución para nuestro disfrute en una zona que sí que parece ya más de este siglo. También hay un visor con cobertura del 100%.


Pero lo que seguro que no encontrarás por mucho que insistas, es un botón para el modo vídeo porque directamente no existe. Nikon no ha dado concesiones en este aspecto y elimina una de las prestaciones que se estaban haciendo populares en las cámaras réflex desde hace años. Sin embargo sí que ha incluido un modo HDR.

Nikon Df, precio y disponibilidad

La nueva Nikon Df no tiene fecha oficial de salida al mercado por ahora, pero sí que se ha marcado el precio de la misma en 2.900 euros incluyendo un nuevo 50 mm f1.8 que es solo nuevo por la apariencia exterior, que se ha renovado mirando al pasado y al estilo de la nueva Nikon Df, cámara que podremos adquirir en colores negro o plateado y con la que podremos usar objetivos F incluso sin sistema sistema Ai.



Articulo de Xakata Photo

lunes, 19 de agosto de 2013

Insomnia II (Madrid)






La Puerta de Alcalá es una de las cinco antiguas puertas reales que daban acceso a la ciudad de Madrid.
Se encuentra situada en el centro de la rotonda de la Plaza de la Independencia, diseñada por el urbanista Ángel Fernandez de los Rios en el año 1778. En el cruce de las calles de Alcalá, Alfonso XII, Serrano y Salustiano Olózaga, junto a las puertas del Retiro: Puerta de España, Puerta de la Independencia y Puerta de Hernani.
La puerta daba acceso a aquellos viajeros que entraban antiguamente a la población desde Francia. Aragon o Cataluña. En la actualidad es una puerta monumental que se encuentra ubicada junto a la Fuente de la Cibeles y el Parque del Retiro. Fue construida por mandato de CarlosIII en sustitución de otra puerta anterior que existía ya desde el siglo XVI. El diseño y obra pertenece al arquitecto italiano Francesco Sabatini. Compitieron con Sabatini otros proyectos por parte de arquitectos españoles: Ventura Rodriguez y de José de Hermosilla, siendo finalmente elegido personalmente por el Rey el diseño de Sabatini.
Se trata de una puerta de estilo neoclásico y aspecto monumental similar a los Arcos de Triunfo romanos, se erigió mirando su exterior a oriente en el año 1778. La puerta ha sido posteriormente restaurada en cinco ocasiones en más de dos siglos de existencia, siendo la última a finales del siglo XX. La originalidad de su fábrica consiste en ser el primer arco de triunfo construido en Europa tras la caída del Imperio Romano, siendo precursor de otros como el Arco de Triunfo de Paris y la Puerta de Brandenburgo en Berlin







El concurso para la construcción del Edificio Metrópolis fue adjudicado a los arquitectos franceses Jules y Raymond Fevrier, quienes empezaron las obras en 1907, si bien fue el español Luis Esteve quien las finalizó en 1910siendo inaugurado el 21 de enero del año siguiente. Fue construido sobre el terreno liberado antes de la construcción de la Gran Vía, al derruirse la conocida popularmente como "Casa del Ataúd", llamada así por lo estrecho del solar en donde se ubicaban cinco casas entre la calle de Alcalá y la de Caballero de Gracia.

En la construcción se empleó cemento armado, técnica que a partir de entonces se usaría de manera habitual en este tipo de edificios. Su altura es de 45m.y consta de 6 plantas y 2 sótanos. Hasta 1921 fue el edifico más alto de Madrid, hasta la construcción del Palacio de la Prensa en la Gran Vía que tiene 58m de altura y 14 plantas.

La torre circular está coronada por una cúpula de pizarra con incrustaciones doradas, que por su semejanza con el casco de los bomberos se denomina "estilo Pompier" (bombero en francés). De estilo neorrenacentista, está adornado con columnas corintias y entablamentos que sirven de pedestal a estatuas alegóricas del Comercio, la Agricultura, la Industria y la Minería. La fachada se compone de 11 grupos escultóricos de los cuales el principal, ubicado al pie de la cúpula, fue esculpido por D. Mariano Benlliure mientras que los restantes (4 en los laterales y 6 en la rotonda del edificio), se deben a los escultores Saint Marceaux y L. Lambert.







Su historia comienza en 1903 cuando el gobierno adquirió, no sin oposición, parte de los jardines del Buen Retiro para edificar en su solar la nueva sede de Correos y Telégrafos. Ese mismo año se convocó un concurso público del que resultó ganador el proyecto que presentaron unos jóvenes arquitectos llamados Antonio Palacios RamiloJulián Otamendi Machimbarrena y el ingeniero Angel Chueca Sainz


Las obras comenzaron en 1904 con un presupuesto inicial de 4.500.000 pesetas que pronto se revelaría insuficiente, y se prolongaron durante trece años, hasta 1917, debido fundamentalmente a las notables dimensiones del edificio, que ocuparía una superficie total de 12.207 metros cuadrados y alcanzaría un coste de 10.311.860 pesetas de las de entonces. 



El edificio fue concebido con criterios de racionalidad y funcionalidad, su gran patio interior facilitaba el tránsito hacia los servicios generales de correos, telégrafos y de telefonía que se instalaron en la planta baja, mientras que las plantas superiores se reservaron para tareas administrativas, para las oficinas de la dirección, la cartería y una sala de telégrafos que conectaba directamente con la antena del edificio, que alcanzaba nada menos que 70 metros de altura, contando con la altura de la torre central. 



En conjunto, el Palacio de Comunicaciones denota las influencias de la monumentalidad de la arquitectura norteamericana, de las composiciones volumétricas de la arquitectura francesa, de las reminiscencias de la arquitectura medieval española en los detalles decorativos y en el tratamiento de la piedra e, incluso, se aprecian algunos elementos característicos de la arquitectura vienesa de Otto Wagner, de quien era entusiasta Palacios. 




miércoles, 14 de agosto de 2013

MIDTOWN. Un Timelapse de 50.000 fotogramas.


Nueva York… siempre hay un antes y un después para muchas de las personas que visitan esta metropoli tan distanciada de otras partes del mundo. En cierto modo, este antes y después se debe a la vivencia en primera persona de lo que es el movimiento, el ruido, las luces y el sin fin de cosas relacionadas con ellos…
Esto es Midtown, que para aquellos que vivimos (o habéis vivido) en esta ciudad, puede llegar a molestar tanto a medida que pasan los días, meses, y ni que decir años. A pesar de todo, y aunque no sea la única esencia de la ciudad, es uno de los puntos que todos recordamos y conocemos, y es que elMIDTOWN de Nueva York es capaz de reflejar todo eso que fotograficamente muchos que nos dedicamos a esto hemos podido desear desde que tuvimos una cámara entre las manos. 
Con una gran banda sonora, unos movimientos que reflejan lo que es la esencia del lugar, y una imagen notableDistrict 7 Media, productora afincada en Washington DC, nos sumerge en este timelapse en la zona más transitada y más reconocida de la Gran Manzana. El trabajo de 6 meses y de más de 50.000 imágenes es lo que podemos ver aquí, en el que a parte de las dificultades propias de este tipo de trabajos hay que añadirle las dificultades que tuvieron en temas de organización y producción debido a los atentados de Boston.
Sin más dilación os dejo con el vídeo, y sus casi tres minutos de metraje.



sábado, 11 de mayo de 2013

¿Sigue teniendo sentido el sistema de zonas en la fotografía digital?



Se han escrito infinidad de líneas acerca del sistema de zonas. Éstas aparecen por igual tanto en los típicos manuales de bolsillo, como en profundos manuales de fotografía avanzada. Y no es para menos. Es el primer método que enseñó a los fotógrafos cómo exponer correctamente una imagen para que lo que muestra la fotografía se asemeje lo más posible a la realidad. Hasta que Ansel Adams comenzó a mostrarlo al mundo, este aspecto era un auténtico misterio.
Sin embargo, por lo denso de algunos conceptos, pocas veces se profundiza en la relación entre este sistema y la fotografía digital; más concretamente con aspectos de ésta como la exposición o el rango dinámico. Escuchamos hablar del derecheo de histograma, pero no sabemos muy claramente el motivo científico de tal práctica. No es para menos: el sistema de zonas es bastante complejo, y para entenderlo completamente hay que tener nociones de análisis matemático, estadístico e incluso ingeniería.

Fundamentos del sistema de zonas

El sistema de zonas fue inicialmente concebido para exponer los negativos de blanco y negro. Su utilidad es la de tener una herramienta que nos ayude a concretar qué zonas son negras, blancas, grises claros, grises oscuros etc.
Como la gama de tonos existentes entre el blanco y el negro es tan grande, lo que se hace es dividir ese espectro en una serie de zonas más fáciles de distinguir por el ojo humano. Estas zonas son un estándar basado en el legado de Ansel Adams, y todavía hoy es vigente.



Como referencia para exponer la zona de gris neutro, podemos utilizar las típicas tarjetas y compararla con la zona V, que representa el gris a 18% (aunque hay cierto sector entre los fotógrafos que defienden que esta zona de gris neutro está mejor representada por un gris al 12%, y de hecho muchos fotómetros lo utilizan para sus mediciones).
¿Y en qué se basa este sistema? En que la distancia de una zona a otra representa un paso en tiempo de exposición. Por ejemplo: la zona V es tres pasos mayor que la zona II y dos pasos más oscura que la zonaVII.





La realidad es que hay muchísimos tonos de gris intermedios en una fotografía. Estas zonas sólo ayudaban a empaquetarlos en un grupo más pequeño. Según el libro de Ansel Adams “El Negativo”, podemos dividir más aún estos grises:
  • Grupo de valores bajos: las zonas 0 – I – II – III
  • Grupo de valores medios: las zonas IV – V – VI
  • Grupo de valores altos: las zonas VII – VIII – IX – X

¿Y ahora qué?

No debemos caer en el error de que el sistema de zonas está formado por una escala de grises uniformemente distribuidos. Por ejemplo, la distancia entre las zonas correspondientes al grupo de valores medios es mucho mayor que la correspondiente a las zonas que pertenecen a los grupos de valores bajos o altos. Esto es así por una razón práctica: las imágenes suelen tener mucho más detalle en los valores de gris medio. Y el sistema de zonas crea una percepción lineal de los valores de gris.
Las tecnologías digitales funcionan de una manera diferente: utilizan una representación lineal en forma de número para representar cada tono de gris. Dicho de otra forma: la información que recoge el negativo es logarítmica, y los archivos digitales la recogen de forma lineal (usando espacio de color RGB). En el caso de un negativo, la relación entre la densidad del gris y la cantidad de luz necesaria para conseguirlo no es lineal. Pero en fotografía digital…si.





Esto tiene una implicación importante: en la fotografía tradicional era posible controlar donde caía cada zona simplemente con una comunicación de subexposición-sobreexposición. Una variación de una Zona en un sentido o en otro equivale a un punto de diafragma (f/stop) más (hacia el 0) o menos (hacia el IX). Y el fotógrafo exponía buscando las zonas más oscuras, que no permitieran perder detalle ni textura (generalmente la zona III) para posteriormente revelar para las iluminaciones.
Cuando comenzó la fotografía digital, la fotografía de película había llegado a un grado de perfección técnica increible. Tuvo que pasar tiempo para que la fotografía digital pudiera igualarla. Hoy contamos con cámaras digitales que tienen un rango dinámico de 10 pasos (ya hay cámaras como la D4 con 14 pasos). Esto es un rango dinámico mucho mayor que el de un negativo. Pero como he comentado antes, el sensor de esta cámara grabará la información de forma lineal.
Aquí viene otro lio: pensar que la cámara almacena los diferentes grises de una forma lineal, puede llevarnos a la confusión de creer que almacena la misma información en cada uno de esos 10-14 pasos de rango dinámico, pero esto no es cierto del todo. Pensemos que un aumento de un paso representa la mitad de luz que el paso previo (f8 deja pasar la mitad de luz que f5.6). De este modo, la información contenida en el primer paso (blanco) es de 8192 tonos diferentes, en el segundo paso de 4096…hasta el décimo, que sólo tendrá 16 tonos diferentes. Es por ello que se suele recomendar el derecheo del histograma, para maximizar el rango dinámico de la imagen: porque éste se concentra en la parte de la derecha. Aquí, con la ayuda de Photivo, os muestro como se vería el histograma típico lineal (izquierda) si lo distribuyéramos según los tonos existentes en cada paso de diafragma (derecha):





Realmente, el histograma que nos presentan las cámaras y algunos programas de revelado RAW es lineal y no nos permite constatar realmente el verdadero rango dinámico de la imagen. Algunos programas como UFRAW permiten visualizar la versión “logarítmica” de un histograma y compararla con la “lineal”. Muchos de esos valores medios que aparecen en el historgrama logarítmico, una camara nos los mostraría en el lado derecho del histograma lineal, donde se concentra la mayor parte del rango dinámico.




Este histograma logarítmico tiene un aspecto muy diferente al que nos muestran otros programas como Lightroom, pero nos permite ver zonas verticales equiespaciadas que se corresponden realmente con los pasos de diafragma de la imagen analizada. Y eso nos da una idea muy fiel a la realidad del verdadero rango dinámico de la imagen. Os recomiendo experimentar con vuestras propias fotos para entender como funcionan.



Entre las utilidades de este histograma está que es más fácil establecer una relación entre la distribución de las luces en términos de diafragmas en la cámara, y la distribución de las luces de la escena real. Por la naturaleza lineal del sensor, podríamos utilizar mediciones sobre la escena real (en términos de diafragma) y compararlas con lo que nos muestra el histograma logarítmico con muy escaso margen de error. Útil, por tanto, si queremos obtener imágenes absolutamente fieles a la realidad.

Y esto, ¿cómo se utiliza?

Entendiendo estos conceptos teóricos, podemos afirmar que si queremos maximizar el rango dinámico de la imagen es mejor derechear el histograma. En fotografía digital, una exposición correcta (vuelvo a reiterar: si no pretendemos hacer alardes creativos sino ceñirnos a la técnica y obtener el máximo rango dinámico posible de la escena) es la que está expuesta para los tonos medios y sin quemar las altas luces. Pero podemos ir más allá, y salvar ciertas situaciones en las que no sabemos como exponer.
Por ejemplo: si el rango dinámico de la escena supera al que la cámara es capaz de proporcionarnos, no tenemos más remedio que elegir entre sacrificar las altas luces o las sombras. Y aquí entra en juego por primera vez esto del sistema de zonas y todo lo relatado hasta ahora: podemos buscar una forma de reflectividad media, y utilizar nuestro fotómetro para exponer a gris neutro. En ese momento, podremos mover un paso de luz arriba o abajo para decidir si decidimos perder altas luces o sombras. De esta forma podemos obtener la fotografía deseada con el máximo rango dinámico que nos permite un sólo disparo.






Pero también podemos utilizar el sistema de zonas para medir, por ejemplo, la exposición de la piel. En el caso de la piel caucásica, sabemos que su exposición ideal está entre las zonas IV y VI. Pues bien: sólo tenemos que medir la exposición con nuestra cámara a gris medio (podemos por ejemplo, sacar una fotografía con el enfoque automático desactivado de una porción de la cara, y observar donde queda el histograma). Y después, a partir de esa medición, sobreexponer +1 y +1½ pasos por encima de ese gris medio.

Conclusión

Como véis, el sistema de zonas si es útil en fotografía digital. Tal vez con algunas matizaciones respecto a su formato original. Pero no deja de ser una gran ayuda. Es complicado explicarlo sin utilizar una sola fórmula matemática, pero espero que aclare algunos conceptos.







Ver articulo original en Xakata.