viernes, 2 de diciembre de 2011
vídeo de animación en blender
es te es el vídeo de mi animación aunque mi computadora se puso demasiado lenta mientras lo capturaba
martes, 29 de noviembre de 2011
Animación por computadora
La animación por computadora se puede definir como un formato de presentación de información digital en el movimiento atreves de una secuencia de imágenes o cuadros creada por la computadora, se utilice principalmente en video juegos películas.
Características de la animación 3D
Una característica importante de la animación por computadora es que nos permite crear escenas realmente tridimensionales. Esto quiere decir que a diferencia de la animación dibujada a mano, en una escena animada por computadora es posible cambiar el ángulo de la cámara y con esto ver otra parte de la escena.
Es posible lograr que una animación se vea más realista si variamos el peso y el tamaño de los objetos. Gracias a las nuevas técnicas de graficación los objetos se pueden ver mucho más realistas. Podemos hacer incluso que aparenten ser de un material específico cambiando las texturas y los pesos. Para cambiar el peso de un objeto es necesario cambiar el tiempo que se tarda en moverse.
Hay tres frases que componen una acción: la anticipación de la acción, la acción en si y la reacción, para que una animación se vea realista, es necesario que el tiempo empleado en cada parte de esa acción sea el indicado. También se debe de mantener el flujo y la continuidad entre las acciones y esto se lograra traslapando un poco cada parte de la acción.
Técnicas de animación
1.-animacion basada en cuadros: es la más utilizada. Para hacer una secuencia las imágenes se van filmando cuadro por cuadro y luego estos se unen para formar la animación.
2.-animacion basada en sprites: se refiere a animación basada en objetos de fondo estático, es decir, lo que cambia son los personajes. Esta técnica es aplicada en video juegos.
3.-key framming: se establecen posiciones en puntos específicos de tiempo en una animación y la parte intermedia la obtiene la computadora promedio de interpolación matemática.
4.-rotoscopiado: se obtiene la posición y el ángulo de los puntos clave de la imagen real y se trata de hacer converger los modelos en computadora con ellos.
5.-Monition control: consiste en obtener posiciones clave de manera automática a partir de un actor por medio de dispositivos que se conectan en su cuerpo.
6.-pixar: el proceso consiste de cuatro etapas desarrollo, preproducción, producción, y pos producción.
En el primer paso se da la idea de los empleados del equipo por escrito.
Se dibuja la historia a mano
Se graba la voz de los personajes
Entonces se crean las escenas en un ambiente tridimensional hecho por computadora.
Animación por computadora
La animación por computadora se puede definir como un formato de presentación de información digital en el movimiento atreves de una secuencia de imágenes o cuadros creada por la computadora, se utilice principalmente en video juegos películas.
Características de la animación 3D
Una característica importante de la animación por computadora es que nos permite crear escenas realmente tridimensionales. Esto quiere decir que a diferencia de la animación dibujada a mano, en una escena animada por computadora es posible cambiar el ángulo de la cámara y con esto ver otra parte de la escena.
Es posible lograr que una animación se vea más realista si variamos el peso y el tamaño de los objetos. Gracias a las nuevas técnicas de graficación los objetos se pueden ver mucho más realistas. Podemos hacer incluso que aparenten ser de un material específico cambiando las texturas y los pesos. Para cambiar el peso de un objeto es necesario cambiar el tiempo que se tarda en moverse.
Hay tres frases que componen una acción: la anticipación de la acción, la acción en si y la reacción, para que una animación se vea realista, es necesario que el tiempo empleado en cada parte de esa acción sea el indicado. También se debe de mantener el flujo y la continuidad entre las acciones y esto se lograra traslapando un poco cada parte de la acción.
Técnicas de animación
1.-animacion basada en cuadros: es la más utilizada. Para hacer una secuencia las imágenes se van filmando cuadro por cuadro y luego estos se unen para formar la animación.
2.-animacion basada en sprites: se refiere a animación basada en objetos de fondo estático, es decir, lo que cambia son los personajes. Esta técnica es aplicada en video juegos.
3.-key framming: se establecen posiciones en puntos específicos de tiempo en una animación y la parte intermedia la obtiene la computadora promedio de interpolación matemática.
4.-rotoscopiado: se obtiene la posición y el ángulo de los puntos clave de la imagen real y se trata de hacer converger los modelos en computadora con ellos.
5.-Monition control: consiste en obtener posiciones clave de manera automática a partir de un actor por medio de dispositivos que se conectan en su cuerpo.
6.-pixar: el proceso consiste de cuatro etapas desarrollo, preproducción, producción, y pos producción.
En el primer paso se da la idea de los empleados del equipo por escrito.
Se dibuja la historia a mano
Se graba la voz de los personajes
Entonces se crean las escenas en un ambiente tridimensional hecho por computadora.
Animación por computadora
La animación por computadora se puede definir como un formato de presentación de información digital en el movimiento atreves de una secuencia de imágenes o cuadros creada por la computadora, se utilice principalmente en video juegos películas.
Características de la animación 3D
Una característica importante de la animación por computadora es que nos permite crear escenas realmente tridimensionales. Esto quiere decir que a diferencia de la animación dibujada a mano, en una escena animada por computadora es posible cambiar el ángulo de la cámara y con esto ver otra parte de la escena.
Es posible lograr que una animación se vea más realista si variamos el peso y el tamaño de los objetos. Gracias a las nuevas técnicas de graficación los objetos se pueden ver mucho más realistas. Podemos hacer incluso que aparenten ser de un material específico cambiando las texturas y los pesos. Para cambiar el peso de un objeto es necesario cambiar el tiempo que se tarda en moverse.
Hay tres frases que componen una acción: la anticipación de la acción, la acción en si y la reacción, para que una animación se vea realista, es necesario que el tiempo empleado en cada parte de esa acción sea el indicado. También se debe de mantener el flujo y la continuidad entre las acciones y esto se lograra traslapando un poco cada parte de la acción.
Técnicas de animación
1.-animacion basada en cuadros: es la más utilizada. Para hacer una secuencia las imágenes se van filmando cuadro por cuadro y luego estos se unen para formar la animación.
2.-animacion basada en sprites: se refiere a animación basada en objetos de fondo estático, es decir, lo que cambia son los personajes. Esta técnica es aplicada en video juegos.
3.-key framming: se establecen posiciones en puntos específicos de tiempo en una animación y la parte intermedia la obtiene la computadora promedio de interpolación matemática.
4.-rotoscopiado: se obtiene la posición y el ángulo de los puntos clave de la imagen real y se trata de hacer converger los modelos en computadora con ellos.
5.-Monition control: consiste en obtener posiciones clave de manera automática a partir de un actor por medio de dispositivos que se conectan en su cuerpo.
6.-pixar: el proceso consiste de cuatro etapas desarrollo, preproducción, producción, y pos producción.
En el primer paso se da la idea de los empleados del equipo por escrito.
Se dibuja la historia a mano
Se graba la voz de los personajes
Entonces se crean las escenas en un ambiente tridimensional hecho por computadora.
Visión por computadora
La experiencia en el mundo en que vivimos esta cubierta por una variedad sin fin de objetos, animados e inanimados. Así pues, si la visión es un medio para un fin – conocer el mundo observándolo – la visión artificial es exactamente lo mismo salvo que el medio por el cual se adquiere el conocimiento ahora es un instrumento de cómputo más bien que el cerebro de alguna ser vivo. Sin duda, esto es una definición muy amplia. Pero el tema de la visión artificial es extenso: los asuntos tales como la restauración de imágenes, mejoramiento de imagen, inspección visual automatizada, visión robótica, escenas tridimensionales, y percepción y cognición visual todas forman parte del término “Visión Artificial”.
Como hemos visto, a la visión artificial le compete estudiar la estructura física tridimensional del mundo para el análisis automático de imágenes. Sin embargo, es necesaria la calidad en el uso de imágenes. Primero, analicemos una simple imagen es dedos- dimensiones y, por lo tanto, perdemos inevitable la información en el proceso de la proyección, es decir en pasar de un mundo tridimensional a una imagen de dos dimensiones.
La visión artificial incluye muchas técnicas que son útiles para si misma, Ej., el procesamiento de imágenes (que se refiere a la transformación, codificación, y transmisión de las imágenes) y los patrones, de las cuales los patrones visuales son pero solo una instancia). Más significativamente, sin embargo, la visión artificial incluye técnicas para la descripción útil de la forma y del volumen, para modelos geométricos, y para el llamado proceso cognoscitivo. Así, aunque la visión artificial se refiere ciertamente al procesamiento de imágenes, estas imágenes son solamente la materia prima de una ciencia mucho más amplia, la misma que se esfuerza en última instancia para emular las capacidades perceptivas del hombre y, quizás, para verter una luz sobre la manera por la cual él logra su interacción adaptativa y robusta con su ambiente.
Procesamiento de imágenes
El procesamiento de imanes se divide en dos niveles:
1.-Prosesamiento de imágenes de bajo nivel
*Muy poco uso de conocimiento respecto al contenido de las imágenes
*Comúnmente se reconoce una secuencia de cuatro para el procesamiento a bajo nivel: adquisición de la imagen, pre-procesamiento, segmentación de la imagen, descripción y clasificación de objetos.
2.-Entendimiento de la imagen a alto nivel
*Existe la capacidad de realizar toma de decisiones respecto al contenido de las imágenes.
El procesamiento de las imágenes esta dado por un conjunto de operaciones llevadas acabo sobre las imágenes a fin de realizar mediciones cuantitativas para poder describirlas; es decir, extraer ciertas características que permitan mejorar, perfeccionar o detallar la imagen.
El poder realizar mediciones sobre las imágenes generalmente requiere que sus características estén bien definidas, los bordes bienes detallados y el color y brillo sean uniformes. El tipo de mediciones a realizar para cada característica específica es un factor importante para poder determinar los pasos apropiados para su procesamiento. Los procedimientos aplicados para el procesamiento de imágenes están orientados a las aplicaciones. Lo que puede ser adecuado para una aplicación puede no ser lo para otra.
Las herramientas para la adquisición de imágenes transforman la imagen visual de un objeto físico y sus características intrínsecas en un conjunto de datos digitalizados, usados para procesarla.
En el procesamiento digital de imágenes, existen diversas aplicaciones y problemas:
-Representación
-Transformación
-Modelado
-Restauración
-Análisis
-Comprensión de datos
Filtros para la eliminación de ruido en las imágenes
se define como ruido cualquier entidad de imágenes, datos o resultados intermedios que no son interesantes para la computación que se pretende llevar acabo.
Se considera como ruido en las imágenes electrocardiografías un fondo con cuadriculado, así como cualquier otro pixel ajeno a las curva del electrocardiograma que pueda representarse en la imagen.
Las técnicas de filtraje son transformaciones de la imagen pixel a pixel, que no dependen solamente del nivel de gris de un determinado pixel, si no también del valor de los niveles de gris de los pixeles vecinos en la imagen original. El proceso de filtraje se realiza utilizando matrices denominadas mascaras, que son aplicadas sobre la imagen. La imagen resultante de la aplicación de un filtro es una nueva imagen. Ls filtros sirven para suavizar o realzar detalles de la imagen, o inclusive minimizar efectos de ruido.
Filtro gaussiano
Este filtro implementa mascaras que intentan imitar la forma guassiana: , donde x,y son las coordenadas de la imagen y sigma una desviación estándar de la probabilidad de distribusion asociada.
El filtro tiene el inconveniente de que, además de remover el ruido, empaña la imagen ocasionando perdida de los detalles mas finos.
Filtro mediana
El objetivo de este filtro es reducir el empañamiento de los bordes. Este filtro reeplaza el pixel actualmente analizado en la imagen por la mediana con el brillo respecto a los vecinos mas cercanos. Este filtro tiene la ventaja de no ser afectado por los pixeles vecinos ruidosos. La eliminación del ruido es bastante buena, con la ventaja de no empañar demasiado los bordes.
Filtro de suavizado direccional
La eliminación de ruido mediante suavizado distorsiona la información con respecto a los bordes al realizar el suavizado se puede usar un filtro de promediado direccional.
Filtro de suavizado conservador
Su procedimiento consiste en encontrar los valores máximo y mínimo de intensidad para cada uno de los pixeles que se encuentran alrededor del pixel a analizar. Si la intensidad del pixel central cae dentro del rango de sus vecinos no se realiza cambio alguno, por el contrario si la intensidad del pixel central es mayor que el valor máximo, el pixel central toma el valor del máximo. Si la intensidad del pixel central es menor que el valor mínimo, dicho valor es asignado al pixel central.
Realce de contraste
La técnica tiene como objetivo mejorar la calidad de las imágenes bajo ciertos criterios subjetivos del ojo humano. Normalmente esta técnica es utilizada como una etapa de pre-procesamiento para sistemas de reconocimiento de patrones.
Filtro paso bajo
Es un filtro de suavizado empleado para remover ruido de alta frecuencia espacial en una imagen digital. Este ruido es generalmente introducido en la imagen durante el proceso de conversión análogo digital como un efecto secundario de la conversión física de patrones de energía luminosa a patrones eléctricos.
Filtro paso alto
Es igual el proceso que en el de paso bajo, con un resultado opuesto. En vez de obtener un suavizado de la imagen, el filtro realza detalles de la imagen. Esto suele enfatizar mucho el ruido en la imagen.
Filtro SUSAN
Aísla únicamente los pixeles que se encuentran dentro de la región del pixel analizado tomando un excedente de promedio de los pixeles en la localidad, siendo este un núcleo circular de pixeles utilizado para el calculo matemático del nuevo valor del pixel.
Este filtro integra los mejores aspectos de los métodos de reducción de ruido existentes incluyendo la preservación de bordes, arrojando, por consiguiente, resultados bastante aceptables.
Operadores para la detección de bordes
La detección de esquinas y líneas se basa en los operadores de deteccion de bordes, mismos que, mediante el cálculo de primeras y segundas derivadas permiten determinar puntos de principal importancia para poder realizar las mediciones necesarias.
Las técnicas utilizadas para determinar los objetos de interés son conocidas como técnicas de segmentación. Una de las más comunes es la segmentación mediante la detección de bordes.
El objetivo de un algoritmo de detección de bordes es obtener imágenes cuya salida se muestre en pixeles de mayor intensidad en los valores que demuestren transiciones cercanas. Los bordes son encontrados en zonas de la imagen donde el nivel de intensidad fluctua bruscamente.
Para poder detectar los bordes de los objetos debemos detectar aquellos puntos de borde que los forman. Así, un punto de borde puede ser visto como un punto en una imagen donde se produce una discontinuidad en el gradiente. Un buen proceso de detección de los bordes facilita la elaboración de fronteras de objetos, con el que el proceso de reconocimiento de objetos se simplifica.
lunes, 3 de octubre de 2011
ULTRA FRACTAL 5
En este software se pueden organizar las capas en grupos lo que hace mas facil trabajar con los fractales, debido a que un grupo de capas tiene un modo de fucion por separado, esto hace que nuevos efectos de fucion sean posibles.
Se puden otulizar sub-formulas, que son llamadas clases esto hace que la formula sea reutilizable en otras ocaciones que se necesite una formula similar.
Este software tiene una impresionante velocidad para la generación de fractales.
En este programa es muy fácil la creación de un fractal y contiene un tutorial muy completo para explicar las funciones del programa y como se puede generar el fractal deseado.
Para la generacion de fractales no hace falta algun codigo estos pueden ser generados con formulas o simplemente con la ayuda del mismo software.
lunes, 29 de agosto de 2011
GLOSARIO
Renderizar.- es un término usado en jerga informática para referirse al proceso de generar una imagen desde un modelo. Este término técnico es utilizado por los animadores o productores audiovisuales y en programas de diseño en 3D.
Render.- dibujar, crear en forma automática una imagen de acuerdo al modelo tridimensional que existe en el ordenador
API.- Una interfaz de programación de aplicaciones o API (del inglés Application Programming Interface) es el conjunto de funciones y procedimientos (o métodos, en la programación orientada a objetos) que ofrece cierta biblioteca para ser utilizado por otro software como una capa de abstracción. Son usadas generalmente en las bibliotecas (también denominadas comúnmente "librerías").
Direct x.- DirectX es una colección de API desarrolladas para facilitar las complejas tareas relacionadas con multimedia, especialmente programación de juegos y vídeo, en la plataforma Microsoft Windows.
Lens flare.- Son pequeños círculos u óvalos de colores a lo largo de la imagen producidos por la luz.
Driver.- Un controlador de dispositivo, llamado normalmente controlador (en inglés, device driver) es un programa informático que permite al sistema operativo interactuar con un periférico, haciendo una abstracción del hardware y proporcionando una interfaz -posiblemente estandarizada- para usarlo.
Maquina de estados.- Se denomina máquina de estados a un modelo de comportamiento de un sistema con entradas y salidas, en donde las salidas dependen no sólo de las señales de entradas actuales sino también de las anteriores. Las máquinas de estados se definen como un conjunto de estados que sirve de intermediario en esta relación de entradas y salidas, haciendo que el historial de señales de entrada determine, para cada instante, un estado para la máquina, de forma tal que la salida depende únicamente del estado y las entradas actuales.
Raytracing.- El raytracing o trazado de rayos es un algoritmo para síntesis de imágenestridimensionales. Propuesto inicialmente por Turner Whitted en 1980, está basado en el algoritmo de determinación de superficies visibles de Arthur Appel denominado Ray Castingescena que se quiere sintetizar trazando rayos desde el observador (cámara) hasta la escena a través del plano de la imagen. Se calculan las intersecciones del rayo con los diferentes objetos de la escena y aquella intersección que esté más cerca del observador determina cuál es el objeto visible. (1968).En el algoritmo Ray Casting se determinan las superficies visibles en la
Clipping.- es una voz inglesa que se traduce como compendio, resumen, recopilación. En España se utiliza para designar la colección de artículos de prensa en que una empresa determinada ha aparecido en forma de noticia.
Con el actual desarrollo de los medios informativos, en la era de la sociedad de la información, el clipping se puede realizar ya no solo en formato papel, sino también digitalizado. La importancia de esta acción de comunicación se ve incrementada con el desarrollo de Internet y la aparición del fenómeno Blog.
En los albores de Internet era menos determinante el control de estos parámetros en las organizaciones, pero según estudios de diversas universidades estadounidenses, el Clipping es hoy una de las principales labores de los departamentos y empresas de comunicación.
Raster.- También llamada mapa de bits, imagen matricial o bitmap, es una estructura o fichero de datos que representa una rejilla rectangular de píxeles o puntos de color, denominada raster, que se puede visualizar en un monitor, papel u otro dispositivo de representación.
Pipeline.- En informática, un pipeline o tubería es un conjunto de elementos de datos conectados en serie, en donde la de un elemento es la del siguiente. Los elementos del pipeline son generalmente ejecutados en paralelo, en esos casos, debe haber un tipo buffer insertado entre elementos. En informática, pipeline es sinónimo de segmentación.
CTR.- (Cathode Ray Tube - Tubo de rayos catódicos). Tipo de monitores para TV o computadoras.
LCD.- (liquid crystal display) es una pantalla delgada y plana formada por un número de píxelesenergía eléctrica. en color o monocromos colocados delante de una fuente de luz o reflectora. A menudo se utiliza en dispositivos electrónicos de pilas, ya que utiliza cantidades muy pequeñas de
VGA.- El término Video Graphics Adapter (VGA) se utiliza tanto para denominar al sistema gráfico de pantallas para PC (conector VGA de 15 clavijas D subminiatura que se comercializó por primera vez en 1988 por IBM); como a la resolución 640 × 480.
DVD.- Es un disco óptico de almacenamiento de datos cuyo estándar surgió en 1995. Sus siglas corresponden con Digital Versatile Disc en inglés (disco versátil digital traducido al español). En sus inicios, la v intermedia hacía referencia a video (digital videodisk), debido a su desarrollo como reemplazo del formato VHS para la distribución de vídeo a los hogares.
Memoria.- Se refiere a parte de los componentes que forman parte de una computadora. Son dispositivos que retienen datos informáticos durante algún intervalo de tiempo. Las memorias de computadora proporcionan una de las principales funciones de la computación moderna, la retención o almacenamiento de información.
VRAM.- Memoria gráfica de acceso aleatorio (Video Random Access Memory) es un tipo de memoria RAM que utiliza el controlador gráfico para poder manejar toda la información visual que le manda la CPU del sistema.
OCR.- El Reconocimiento Óptico de Caracteres (OCR), así como el reconocimiento de texto, en general son aplicaciones dirigidas a la digitalización de textos. Identifican automáticamente símbolos o caracteres que pertenecen a un determinado alfabeto, a partir de una imagen para almacenarla en forma de datos con los que podremos interactuar mediante un programa de edición de texto o similar.
GIF.- es un formato gráfico utilizado ampliamente en la World Wide Web, tanto para imágenesanimaciones. como para
BMP.- es el formato propio del programa Microsoft Paint, que viene con el sistema operativo Windows. Puede guardar imágenes de 24 bits (16,7 millones de colores), 8 bits (256 colores) y menos. Puede darse a estos archivos una compresión sin pérdida de calidad: la compresión RLE (Run-length encoding).
Algoritmo LZW.- Es un algoritmo de compresión sin pérdida.
JPEG.- (del inglés Joint Photographic Experts Group, Grupo Conjunto de Expertos en Fotografía), es el nombre de un comité de expertos que creó un estándar de compresión y codificación de archivos de imágenes fijas.
PNG.- PNG (sigla en inglés de portable network graphics) es un formato gráfico basado en un algoritmo de compresión sin pérdida para bitmaps no sujeto a patentes. Este formato fue desarrollado en buena parte para solventar las deficiencias del formato GIF y permite almacenar imágenes con una mayor profundidad de contraste y otros importantes datos.
SVG.- Los Gráficos Vectoriales Escalables (del inglés Scalable Vector Graphics) o SVG es una especificación para describir gráficos vectoriales bidimensionales, tanto estáticos como animados (estos últimos con ayuda de SMIL), en formato XML.
RAW.- El formato de imágenes RAW ("crudo" en inglés; en el caso de las imágenes, entiéndase como "Formato de Imagen sin modificaciones") es un formato de archivo digital de imágenes que contiene la totalidad de los datos de la imagen tal y como ha sido captada por el sensor digital de la cámara fotográfica.
MPEG-1.- MPEG-1 es el nombre de un grupo de estándares de codificación de audio y vídeo normalizados por el grupo MPEG (Moving Pictures Experts Group). MPEG-1 vídeo se utiliza en el formato Video CD. La calidad de salida con la tasa de compresión usual usada en VCD es similar a la de un cassette vídeo VHS doméstico. Para el audio, el grupo MPEG definió el MPEG-1 audio layer 3 más conocido como MP3.
WAV.- WAV (o WAVE), apócope de WAVEform audio file format, es un formato de audio digital normalmente sin compresión de datos desarrollado y propiedad de Microsoft y de IBMPC, admite archivos mono y estéreo a diversas resoluciones y velocidades de muestreo, su extensión es .wav. que se utiliza para almacenar sonidos en el.
OpenGL.- OpenGL (Open Graphics Library) es una especificación estándar que define una API multilenguaje y multiplataforma para escribir aplicaciones que produzcan gráficos 2D y 3D. La interfaz consiste en más de 250 funciones diferentes que pueden usarse para dibujar escenas tridimensionales complejas a partir de primitivas geométricas simples, tales como puntos, líneas y triángulos.
domingo, 21 de agosto de 2011
Resumen de la historia de la graficacion
1950
La primera computadora que utilizó un CRT (Tubo de Rayos Catódicos) como dispositivo de visualización fueWhirlw ind, construida en el MIT (Instituto Tecnológico de Massachussets) para simular vuelos de entrenamiento de los escuadrones de bombarderos de la marina de Estados Unidos.
También continuó el desarrollo de los dispositivos de entrada. El sistema para la defensa espacial SAGE, desarrollado para convertir los sonidos de detección de un radar en imágenes, fue el primero en emplear un lápiz óptico para seleccionar símbolos en la pantalla.
1952
El primer videojuego de la historia fue creado, con el nombre de OXO. Fue producto de la tesis doctoral de Alexander Sandy Douglas en la Universidad de Cambridge para demostrar la interactividad entre computadoras y seres humanos. El juego era una versión del conocido “tres en raya” y fue escrito para la computadora EDSAC.
1961
Un estudiante del MIT, Steve Russell dirigió un equipo que creó el primer videojuego interactivo de naves espaciales. Le tomó al equipo cerca de 200 horas- hombre escribir la primera versión deSpacewar. El juego se escribió en una PDP- 1 que fue una donación de DEC al MIT esperando que en el MIT se pudiera hacer algo trascendente con su producto.
1963
Se creo el primer sistema que permitía la manipulación directa de objetos gráficos y fue el precursor de los sistemas modernos de gráficos por computadora y los programas de diseño asistido por computadora (CAD). El sistema, creado para aplicaciones de diseño e ingeniería fue desarrollado porIvan
Sutherland como trabajo de tesis doctoral en el MIT. El sistema permitía a los usuarios dibujar puntos, segmentos de líneas rectas y arcos circulares directamente sobre la pantalla mediante un lápiz óptico.
1965
En el ámbito del hardware, los CRT utilizados hasta entonces podían trazar líneas rectas entre dos puntos en la pantalla, pero ya que las líneas dibujadas se desvanecían en la pantalla, era necesario redibujarlas varias veces por segundo, lo que solo era posible por medio de dispositivos muy costosos de hardware. Estos dispositivos se denominaban pantallas de vector, de trazo o caligráficas.
1966
Sutherland, ejerciendo como profesor en Harvard, junto con Bob Sproull fue el primero en implementar un sistema de realidad virtual, a través del cual, con la ayuda de un casco, los usuarios podían ingresar virtualmente en una habitación y mirar en todas direcciones una vez adentro.
1968
Tektronix introdujo un CRT con tubo de almacenamiento que permitía retener permanentemente un dibujo hasta que el usuario decidiera borrarlo. Este sistema eliminó la necesidad de utilizar costosos sistemas especiales de hardware y memoria para redibujado.
1970
El mayor de los primeros avances en gráficos por computadora tridimensionales fue creado, el algoritmo de superficie oculta. Para dibujar la representación tridimensional de un objeto en la pantalla, la computadora debe determinar cuales superficies están “detrás” del objeto desde la perspectiva del observador, y de ese modo serían “escondidas” cuando la computadora crea (o renderiza) la imagen.
Se comenzaron a introducir los gráficos por computadora en el mundo de la televisión. Computer Image Corporation (CIC) desarrollo sistemas complejos de hardware y software como ANIMAC, SCANIMATE y CAESAR.
1971
Uno de los mas importantes avances para los gráficos por computadora apareció en escena, el microprocesador.
Nolan Kay Bushnell junto con un amigo creo el Atari. Después de esto comenzó el desarrollo de un videojuego de arcadia llamadoPong, que se conoció en 1972 y comenzó una industria que continúa siendo hasta hoy una de las que mayor uso hace de los gráficos por computadora.
1980
En la conferencia SIGGRAPH de 1980 fue mostrada una impactante película titulada “Vol Libre”. Se trataba de un vuelo de alta velocidad a través de montañas fractales generadas por computadora.
1986
Se formó Pixar cuando la división de gráficos por computadora de Lucasfilm fue adquirida por Steven Jobs. El equipo pionero de la compañía formado por John Lasseter, Ed Catmull y Ralph Guggenheim produjo el famoso software Renderman.
1994
El verano de 1994 trajo toda una gama de películas llenas de gráficos por computadora. Algunos efectos sin embargo, eran tan foto realistas que el uso de la computadora era indetectable.
1995
Se presentó la primera película de larga duración con gráficos y animaciones 3D por computadora. La película realizada por Pixar fue llamada Toy Story. La película no presentó mejoras revolucionarias, sin embargo solo por ser una película de larga duración tuvo un gran impacto en la manera en que la gente percibía los gráficos por computadora.
Sony lanzó al mercado mundial su consola de juegos Playstation. Hasta entonces las llamadas consolas de videojuegos solamente podían manejar gráficos 2D, pero el Playstation contenía un chip (además del CPU) de 3D acelerado por hardware capaz de dibujar 360,000 polígonos por segundo.
1996
La industria de los videojuegos experimentó un gran avance en los gráficos 3D con la salida deQuake de ID Software. 3D acelerado por hardware se convirtió en la frase de moda y al menos dos fabricantes sacaron al mercado aceleradores gráficos para PC (Diamond Edge de Diamond Multimedia usando el procesador NV1 de nVidia, y Virge de S3). Sin embargo los aceleradores de esta primera generación fueron prácticamente inútiles.Quake nunca los requirió y aún cuando los usara, los aceleradores ofrecían un pobre desempeño.
1997
La industria de los videojuegos experimentó de nuevo una revolución, esta vez fue el acelerador 3DFX Voodoo 3D. Este chip 3D aplastó por completo a la competencia con su increíble y extremadamente práctico desempeño en 3D.
1999
Fue probablemente el año más excitante para los videojugadores de todo el mundo. nVidia finalmente logró superar el desempeño de 3DFX en la batalla de los chips 3D con su procesador TNT2. Ni siquiera la Voodoo 3 podría igualar al chip TNT2 (y TNT2 Ultra). Pero nVidia no se detuvo ahí. En octubre sacaron a la venta el primer GPU (Unidad Gráfica de Procesamiento) para consumidor del mundo, laGeForce256. La GeForce (nombre código nv10) fue la primera tarjeta 3D que poseía un motor de hardware llamado Transform & Lighting. Ninguno de los títulos lanzados en 1999 soportaba esta opción con la excepción de Quake III, el cual salió a la venta en diciembre. La GeForce 256 podía renderizar triángulos con soporte de T&L en hardware, todo esto capaz de trabajar en conjunto con un rendimiento igual o mayor a 10 millones de polígonos por segundo.
2001
Nintendo lanzó elGamecube en septiembre de 2001, al igual que elGameboy Advance. Pero probablemente el gran evento del 2001 fue el lanzamiento de la consolaXbox deMicrosoft. Con un procesador gráfico desarrollado por nVidia, disco duro, CPU Intel y más, fue diseñada para ganarles a sus principales competidores que serían el Playstation 2 y el Gamecube de Nintendo. El alguna vez tan influyente SEGA había dejado el negocio del hardware y ahora se concentraba en el software.
El mundo de la cinematografía también se vio beneficiado con estos avances y se puede ver en películas como Final Fantasy: The Spirits Within, tal vez el primer intento verdadero por crear humanos realistas en una película completamente generada por computadora.
2003
Aparecieron varias secuelas cinematográficas con grandes efectos especiales. X-Men 2, Matrix 2 y Terminator 3 son solo algunos ejemplos.Matrix Revolutions presentó una gran cantidad de asombrosos efectos especiales.
2007
Para la películaSpider-Man 3 de 2007 Sony Pictures Imageworks (SPI) usó el software Autodesk Maya para la animación en 3D, el modelado, texturizado y combinación de movimientos de los personajes y efectos visuales aproximadamente en 80% de las tomas realizadas por el estudio.
Suscribirse a:
Entradas (Atom)