Three Eyes/ Tres Ojos

Imagine how out of this world it would be if we saw everything upside down. Would you believe me if I told you that this is the true nature of vision?

Physics and biology are constantly working together so we can see things the way we do. In order to see, eyes need to process light. Light travels in straight lines so when it hits an object* it creates points from which rays of light bounce off in all directions. Rays of light enter the eye and are bent by the cornea and lens (law of refraction) which are then projected as points of light on the retina. Since the curvature of the eye bends the rays, the top points are projected at the bottom of the retina and the bottom points at the top, so a smaller and upside down image is formed.

blog-1

Two major photoreceptors lie behind the retina; rods and cones. Rods are extremely sensitive to light and allow us to see in dim light; however most of our vision comes from cones. Cones adjust to most light conditions and focuses on details and colors. These photoreceptors gather images by absorbing light and sending electrical signals to retinal neurons. The optic nerve sends these signals to the brain which processes the image we see. The brain recognizes patterns and experiences so it sees the object with its real size and distance and corrects it to the upright nature of the object.

The colors we see in a picture are known as pixels. Pixels are small square millimeter surface areas in the sensor containing color data (Red, Green and Blue). A camera sensor of 35mmx24mm has 24,000,000 pixels spread over the sensor. Since cameras are technologies copying eye properties and characteristics, the eye has pixels too.

The central part of the retina is called the macula, where the highest concentration of photo receptors in the eye are; inside it, is the fovea, filled with cone cells only (color sensing). The macula contains about 150,000 pixels per millimeter square. The rest of the retina has fewer pixels, most of which are black and white sensing rods only; with this we see things from the corner of our eye. A higher pixel count translates into high definition.

The iris controls the amount of light that enters the eye. In order to focus the image on the retina, the muscles behind the iris relax or contract depending on the distance between the eye and the object. When an object is far away, muscles relax; lenses flatten; and fewer fields of vision are filled, leaving a smaller image on our retina. When an object is near, muscles contract; lenses thicken; and more fields of vision are filled, leaving a larger image on our retina.

But how does Biology relate to photography?

The advanced technology we use today for taking pictures; the blinding flashes, the big lenses and the touch screens are no more but attempts at replicating the human eye and its experience of vision. Just as the eye evolved from a simple photo receptor on a bacterium, camera technology also had a starting point.

Ibn Al-Haytham (1500 A.D) gave the world the first pinhole camera also known as the Camera Obscura or dark chamber: a cubical contraption painted in black with a small hole on its side, through which light entered, displaying an upside down image on a surface. This big scale camera was a sensation for the people of the time; especially for painters. It was common practice to build this primitive camera, place their canvas were the light came in, painted the image reflected and flip the painting when it was finished.

blog-2
Painter’s Camera Obscura

In 1724 Johann Heinrich Schultz discovered that silver and chalk mixture exposed to light in a sliding box could capture images. Ten years later Joseph Nicephore Niepce and Louis Jacque Daguerre discovered the daguerreotype process which involved coating a copper plate with silver, making it sensitive to light and then adding iodine vapor to create photos. When the photo was taken, exposing it to mercury vapor and table salt developed the image.

blog-3
Daguerrotype Camera

It was almost 200 years ago that the first camera drew from the way the human eye works. Though differences between the eye and digital cameras exist, they operate almost analogously. The eye consists of a front element; the cornea in the eye resembles the aperture ring in the camera, while the iris and pupil equate a camera lens, and a camera sensor a retina. Years have perfected digital cameras, bringing them closer than ever to the way an eye functions.

blog-4
Camera in the eye

Pinhole cameras

A pinhole camera is essentially a portable camera obscura. A box or a tube is painted completely dark, with translucent paper serving as a screen (retina), while black cardboard stops light from filtering in; with the tiny pinhole as a photographic aperture. To take a picture one just sets photographic paper on the top of the box, cover the pinhole, center the camera upon that which one wants to capture, hold it very still and uncover the pinhole. If the day is sunnier it can take up to 15 seconds for an image to be produced. Darker conditions will require the hole to be exposed longer to light, some pictures have taken 8 hours or more to shoot. Exposure times vary depending on the size of the pinhole and the brightness of the setting.

What makes the pinhole camera unlike an eye is simple; it does not have a lens. Because there is no lens the light rays will not refract or bend; instead they will continue in straight line to the surface. Still, the incident angle will reflect the top of the object at the bottom of the pinhole screen and the bottom of the object at the top of it, forming an inverted image on the screen.

blog-8
Pinhole Camera                                                       Digital Camera

Mathematics plays a role in camera theory: the distance from the hole to the screen known as the focal length is directly proportional to the diameter of hole on the camera. The diameter of the pinhole affects the definition of the image produced. With a smaller pinhole, the image is clearer but with a larger one, the image blurs. The smaller the distance between the hole and the screen, the smaller the image will be, while the longer the distance, the longer the rays of light entering the hole will have to travel so a larger image is formed on the screen.

The diameter is calculated with Lord Rayleigh’s formula:

Where d is the pinhole’s diameter, k is a constant equal to 1.90, f is the focal length of the pinhole camera, and λ is the light’s wavelength being photographed. As focal length and light’s wavelength increases, so does the diameter to get a clearer image.

It is important to note that an image produced with a pinhole camera will never be as sharp as it would be if one used a lens. Many consider this lack of absolute sharpness a flaw but it is a unique characteristic of pinhole photography that adds beauty of its own.

Three eye Project

Eadweard Muybridge’s studies of motion were pioneering in photography. In the 1980’s, he was hired by Leland Standford to prove that the hooves of racehorse indeed all lifted off the ground as it galloped. Horses are so fast that out eyes cannot register the motion of their limbs. Muybridge’s approach was simple in that he set up rows of cameras with tripwires so that when the horse ran by them, each camera would take a picture in a split second.

blog-7
Muybridge: The horse in Motion

Both, Niepce-Daguerre with the daguerreotype camera or pinhole camera and Muybridge with his technique to capture movement, presented avant-garde ideas uncommon for their time period. Both were an inspiration to find my own project.

My project proposes a merging of two timelines by working with two cameras: a digital camera of the present day inside a smaller and portable version of Ibn Al-Haytham’s camera obscura. The eye, the pinhole camera and the digital camera are three eyes.

Since a digital camera is inside another darker circled camera the obscurity forces the photographer to work during daylight and rise the ISO/ASA (sensitivity to light and depth of field) so that the camera is more sensitive to light. However, this causes interference in the images that are produced. Allowing 30 seconds or more is crucial so that more light is allowed to filter in through a hole 2 millimeters in diameter. Such timing forces photographers to use tripods and make sure that what they are photographing stays still, otherwise the image will blur.

It was Leonardo Da Vinci who said, “Who would believe that so small a space could contain the image of all the universe?” Ironically, the minuteness of the pinhole creates a bigger image than the hole itself.

To me the uniqueness of this project lies not only in merging two time periods and in the photographic contraption but in making that contraption myself. Like Muybridge and Niepce, I had to make a series of improvements to make the apparatus and the pictures as perfect as they could be. Tinkering with different materials and different pinhole sizes so as to produce the best quality photographs under the circumstances presented was a challenge I am proud to have taken.

I set a digital camera inside the pinhole camera to picture what was reflected on the screen. Even when I see the images that are produced, it is strange but exciting to behold images the way they are before reaching our brain.

aparato
Three Eyes

_______________________________________________________________

Imagínate lo loco que sería si viéramos todo al revés. ¿Me creerías si te digo que esa es la verdadera naturaleza de la visión?

blog-1
Como la imagen se forma en la retina

La física y la biología trabajan juntos constantemente para que veamos las cosas como las vemos. Para poder ver, los ojos necesitan procesar la luz. La luz viaja en línea recta, por lo que cuando golpea un objeto* crea puntos desde los cuales los rayos de luz rebotan en varias direcciones. Al entrar al ojo, la córnea y el lente dobla los rayos de luz (ley de refracción), dichos rayos se proyectan como puntos de luz en la retina. Dado a que la curva del ojo dobla los rayos, los puntos de arriba de los objetos se proyectan en la parte de abajo de la retina y los puntos de abajo de los objetos se proyectan en la parte de arriba de la reina, formando una imagen más pequeña y volteada.

Dos foto receptores se esconden atrás de la retina; conos y bastones. Los bastones son extremadamente sensibles a la luz y nos permiten ver la luz tenue; sin embargo la mayoría de nuestra visión viene de los conos. Los conos se ajustan a la mayoría de condiciones de la luz y se enfocan en detalles y colores. Las imágenes se crean porque estos fotos receptores absorben la luz y mandan señales eléctricas a neuronas de la retina. El nervio óptico manda estas señales al cerebro, y el cerebro procesa la imagen que vemos. El cerebro reconoce patrones y experiencias, por esto podemos reconocer el objeto con su tamaño y distancia real, y corrige dicho objeto a su naturaleza vertical.

Los colores que vemos en una fotografía son conocidos como pixeles. Los pixeles son pequeñas áreas de milímetros cuadrados en el sensor que contienen información de color (Rojo, Verde y Azul). El sensor de la cámara es de 35mmx24mm y tiene 24, 000,000 pixeles esparcidos alrededor del señor. Por lo que las cámaras son tecnologías copiando las propiedades del ojo y sus características, el ojo también tiene pixeles.

En el centro de la retina conocida como la mácula, se encuentra la mayor concentración de foto receptores en el ojo; dentro de la mácula está la fóvea, llena de células de conos (sensibles al color). La mácula contiene aproximadamente 150, 000 pixeles por milímetro cuadrado. El resto de la retina tiene menos pixeles, estos pixeles son bastones sensibles al blanco y negro y son las cosas que vemos en la esquina de nuestro ojo. Más pixeles se traducen a una calidad de alta definición.

El iris controla la cantidad de luz que entra al ojo. Para que la imagen se enfoque en la retina, los músculos atrás del iris se relajan o se contraen dependiendo de la distancia entre el ojo y el objeto. Cuando el objeto está lejos, los músculos se relajan, los lentes se vuelven más delgados y se llena menos campo de visión, dejando una imagen más pequeña en la retina. Cuando un objeto está cerca, los músculos se contraen, los lente se anchan y más campos de visión se llenan, dejando una imagen más grande en la retina.

¿Pero cómo se relaciona la biología con la fotografía?

La tecnología avanzada que usamos hoy para tomar fotos; los flashes que nos ciegan, los grandes lentes y las pantallas táctiles no son más que intentos de replicar el ojo humano y su visión. Al igual que el ojo evolucionó de una simple célula, la tecnología de la cámara también tuvo un comienzo.

Ibn Al-Haytham (1500 D.C) le dió al mundo la primera cámara estenopéica, también conocida como Cámara Obscura o cámara oscura: un cubo pintado de negro con un pequeño agujero en un lado, por el cual entra la luz y forma una imagen invertida en una superficie. Esta cámara fue una sensación para las personas de la época, especialmente para los pintores. Solían construir estas grandes cámaras, poner un lienzo por donde entrara la luz, pintar la imagen que se reflejaba en el lienzo y voltear la pintura cuando estaba terminaba.

blog-2
Camara Oscura de pintores

En 1724 Johann Heinrich Schultz descubrió que al exponer la mezcla de plata y tiza a la luz, una caja corrediza podía capturar imágenes. Diez años después Joseph Nicephore Niepce y Louis Jacque Daguerre descubrieron que se podían crear fotos si agregábamos vapor de yodo al proceso de daguerrotipo: cubrir un plato de cobre con plata, volviendo el plato sensible a la luz. Cuando la foto se tomaba, exponerlas a vapor de mercurio y sal revelaba la imagen.

blog-3
Daguerrotipo

Aproximadamente 200 años atrás, la primera cámara derivo de como trabajaba el ojo humano. A pesar que existen diferencias entre el ojo y las cámaras digitales, funcionan casi igual. El ojo consiste en un elemento frontal, la córnea en el ojo equivale al aro de la cámara, el iris y la pupila son similares al lente de la cámara y la retina parecida al sensor de la cámara. Los años han perfeccionado las cámaras digitales, acercándose como nunca antes a la manera que el ojo funciona.

blog-4
Camara en el ojo

CAMARAS ESTENOPEICAS

Una cámara estenopéica en esencia es una cámara oscura portable. Una caja o un tubo pintado completamente oscuro, con papel traslúcido que sirve como pantalla (retina), mientras que una cartulina negra detiene a la luz de entrar y un hueco tan pequeño como apertura fotográfica. Para tomar una foto, pones el papel fotográfico en la tapa de la caja, cubres el agujero, centras la cámara a los que quieres tomar, la coges muy estable y descubres el agujero. Para tomar una foto, se necesitan quince segundos si fuese un día soleado y más tiempo si fuese un día oscuro. Condiciones más oscuras requieren que el agujero este más tiempo expuesto a la luz, hay fotografías que han demorado hasta ocho horas o más en tomar. Tiempos de exposición a la luz varían dependiendo del tamaño del agujero y de la luz del ambiente.

Lo que diferencia a la cámara estenopéica del ojo es simple, no tiene un lente. Dado que no tiene lentes, en lugar de doblarse, los rayos de luz continúan en línea recta hasta llegar a la superficie. Igualmente, la parte de arriba del objeto se va a reflejar en la parte de abajo de la pantalla y la parte de abajo del objeto en la parte de arriba de la pantalla.

blog-8
Camara Estenopica                                             Camara Digital

Las matemáticas juegan un rol en la teoría fotográfica: la distancia del agujero a la pantalla se conoce como distancia focal, la cual es directamente proporcional con el diámetro del hueco en la cámara. El diámetro del hueco afecta la definición de la imagen. Con un hueco más pequeño, la nitidez de la imagen es mayor pero con un hueco más grande, la imagen se resulta borrosa. Una distancia menor entre el hueco y a pantalla, la imagen va a ser más pequeña, mientras que con una distancia mayor, los rayos de luz van a tener que recorrer una distancia más larga, formando una imagen más grande en la pantalla.

El diámetro del hueco es calculado con la fórmula de Lord Rayleigh.

Donde d es el diámetro del agujero, k es una constante igual a 1.90, f es la distancia focal de la cámara y λ es la onda de la luz siendo fotografiada. Cuando la distancia focal incrementa, la onda de la luz y el diámetro también, así la imagen es más nítida.

Es importante saber que la imagen producida con una cámara estenopéica nunca será igual de nítida que una tomada con una cámara con lente. Algunos consideran esta falta de completa nitidez un defecto, pero es una característica única de la fotografía estenopéica que agrega a su belleza.

Tres ojos

Los estudios de movimiento de Eadweard Muybridge fueron innovadores en la fotografía. En 1980, fue contratado por Leland Standford para probar que todas las patas de los caballos de carreras se levantaban en algún momento. La velocidad de los caballos es tan rápida que nuestros ojos no pueden registrar el movimiento de todas las patas. El enfoque de Muybridge fue simple, coloco líneas de cables para cuando el caballo corriera sobre estas, cada cámara tomaría una foto cada milésima de segundo.

blog-7
Muybridge: Caballo en movimiento

Ambos, Niepce-Daguerre con el daguerrotipo o cámara estenopéica y Mubridge con su técnica para capturar el movimiento, presentaron ideas nuevas para su época. Ambos proyectos fueron una inspiración para crear mi nuevo proyecto.

Mi proyecto propone la unión de dos líneas de tiempo trabajando entre dos cámaras: la cámara digital del presente dentro de una pequeña y portable versión de Ibn Al-Haytham Cámara Oscura. El ojo, la cámara estenopéica y la cámara digital son los tres ojos.

Porque una cámara digital está adentro de otra cámara circular más oscura, la oscuridad obliga al fotógrafo a trabajar durante el día y a subir el ISO/ASA (sensibilidad a la luz y profundidad de campo) para que la cámara sea más sensible a la luz. Sin embargo, esto causa interferencia en las imágenes. Permitiendo treinta segundos o más es crucial para que la luz tenga más tiempo de entrar por el hueco de dos milímetros. Ese tiempo obliga al fotógrafo a usar los trípodes y a asegurarse que lo que sea que este fotografiando se quede quieto, de lo contrario la imagen saldría borrosa.

Leonardo Da Vinci dijo, “Quien diría que un espacio tan pequeño puede contener la imagen de todo el universo?” Irónicamente, el minúsculo tamaño del agujero crea una imagen más grande que el mismo agujero.

Para mí, este proyecto es único no solo porque se fusionan dos líneas de tiempo en un aparato fotográfico sino porque yo hice el aparato. Como Muybridge y Niepce, tuve que hacer una serie de mejoras para hacer que el aparato y las fotos fueran lo más perfectas posibles. Probar diferentes materiales y tamaños de estenopo para producir fotografías de mejor calidad a pesar de las circunstancias fue un reto, un reto que estoy orgullosa de haber superado.

Puse una cámara digital adentro de una cámara estenopéica para fotografiar lo que se reflejaba en la pantalla. Incluso cuando veo las imágenes que he producido, es raro pero emocionante ver como vemos todo antes que el cerebro procese la información.

aparato
Tres Ojos

Pictures on Facebook: https://www.facebook.com/RaffaTonani/?view_public_for=1589103388070161

Fotos en Facebook: https://www.facebook.com/RaffaTonani/?view_public_for=1589103388070161

Advertisements

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s