sábado, 16 de enero de 2016

¿Quieres sacar fotos inolvidables? Este algoritmo del MIT te lo pone fácil y El legado de la Guerra Fría en la informática

Que opina usted? ¿Quieres sacar fotos inolvidables? Este algoritmo del MIT te lo pone fácil - 17/12/2015 7:58:38

" Que el objetivo de todo fotógrafo es lograr la imagen perfecta, aquella cuya belleza perdure durante años en la retina de quienes la vean es una realidad innegable y una pretensión un tanto ingenua. De hecho, aquellos factores que influyen en nuestra memoria no siempre coinciden con los criterios de composición de este arte, un inconveniente que científicos del MIT acaban de resolver.
Lo han logrado gracias a la creación de un nuevo algoritmo basado en el aprendizaje profundo capaz de evaluar la facilidad con la que se recordará una imagen. Un software al que han llamado MemNet y que ya puedes probar en su página web. Pero, ¿en qué consiste exactamente?
Así es MemNet

De esta manera, su sistema utiliza este campo de la inteligencia artificial -que, por cierto, usa redes neuronales para enseñar a los ordenadores a filtrar grandes cantidades de información de manera independiente. para confeccionar una suerte de mapa de calor de las distintas zonas de la fotografía. Un modo que determina cuáles serán las más atractivas para el ojo humano.
""Si bien el deep-learning ha impulsado grandes avances en el reconocimiento de objetos y la escena de la comprensión, la predicción de la memoria humana a menudo ha sido vista como un proceso cognitivo de alto nivel al que los científicos nunca iban a ser capaces de hacer frente"", ha comentado Aude Oliva, director de la investigación. ""Bueno, pues nosotros vimos que podíamos, y lo hemos hecho!""

Evidentemente, el software no actúa de manera aleatoria, sino que se sirve de miles de imágenes (60 mil) y metadatos, algunas de ellas presentes en bases propias como Dom y Places. Cada una de ellas había sido sometida previamente a un experimento online que determinó la capacidad que la muestra (los sujetos implicados) tenían para recordarlas. A partir de entonces es cuando se crea el citado croquis, que marca en distintos colores, la importancia por regiones.
Según las pruebas iniciales, el algoritmo, por ejemplo, indica que los paisajes son más sencillos de olvidar, mientras que las partes expuestas del cuerpo y las caras permanecen durante más tiempo en nuestros recuerdos. En el caso de los dibujos, ahora bien, el programa se queda corto.

Unas posibilidades que, en definitiva, convierten a MemNet en el candidato ideal para confeccionar un editor fotográfico sin parangón, o bien añadir nuevas funciones a los actuales. Asimismo, las características que lo hacen tan especial podrían ser utilizadas por el marketing, con el objetivo de que los potenciales clientes asociasen determinadas imágenes con mayor facilidad; algo que, sin duda, convendría regular.
El campo de la medicina también saldrá beneficiado pues, probablemente, la incorporación de este sistema permitirá estimular determinadas áreas de la memoria y prevenir ciertas enfermedades relacionadas e incluso ralentizar la evolución de otras tan graves como el Alzheimer.
Vía | MIT News
También te recomendamos
Cómo pasar tus archivos del smartphone y tablet al ordenador sin que pierdas nada por el camino
El nuevo almacenamiento fotográfico de Google en la nube puede llegar en el próximo I/O
Celebleaks: así está siendo la imparable difusión de desnudos de varias famosas
-
La noticia ¿Quieres sacar fotos inolvidables? Este algoritmo del MIT te lo pone fácil fue publicada originalmente en Genbeta por Águeda A.Llorca .
Ver artículo...
" Fuente Artículo

Noticia, El legado de la Guerra Fría en la informática - 13/05/2014 3:30:45

" El término Guerra Fría se utiliza para denominar el enfrentamiento entre EE.UU. y la antigua URSS tras finalizar la II Guerra Mundial, que se prolongó hasta la caída del muro de Berlín en 1989. Hay historiadores que sitúan el principio y final de este conflicto antes y después, aunque tal precisión no es relevante de cara al tema de este artículo.
La Guerra Fría se produjo en varios frentes, pero el origen común de la enemistad entre estas dos grandes potencias fue fruto de dos visiones distintas sobre los principios en que debía basarse el orden mundial: el concepto de libertad occidental, frente a la visión igualitaria del socialismo del Este de Europa.
Este enfrentamiento ideológico mantuvo al mundo en vilo durante más de cuatro décadas, con la amenaza constante de una guerra. En ambos bandos se potenció la industria militar y, sobre todo, el tratamiento de la información asociada a un hipotético enfrentamiento armado. La informática tal y como la conocemos hoy es consecuencia de esa carrera por anticiparse al enemigo.
Antecedentes históricos de las máquinas de cálculo
El cálculo y su problemática han preocupado a la Humanidad desde el principio de los tiempos. Se atribuye a la cultura mesopotámica el invento del ábaco, 2000 años a. C. El origen del algoritmo se sitúa en la Edad Media, hacia el Siglo VIII.
Imagen | Wikipedia
Durante el Siglo XVII se produjeron grandes avances: invención del logaritmo (Napier), primera calculadora mecánica (Schickard), regla deslizante --uno de los primeros aparatos de la informática analógica-- (Oughtred), pascalina (Blaise Pascal) y la primera calculadora de propósito general (Leibniz).
Durante el Siglo XIX se fraguaron muchas ideas que han servido de base al cálculo moderno y sus máquinas. La tarjeta perforada fue utilizada por Jacquard en la industria textil. Charles Babbage, con su máquina analítica (que nunca llegó a construir), puso la primera piedra de la computación moderna. Lady Lovelace tuvo la ocurrencia de adaptar las tarjetas perforadas al motor de Babbage para repetir ciertas operaciones (y por ello es considerada la primera programadora), y George Boole, con su álgebra, sentó las bases de la teoría informática.
El corazón de la parte conceptual de la computación ya estaba definida, aunque faltaban todavía algunos elementos necesarios para llegar al ordenador moderno. A principios del Siglo XX llegaron algunos de ellos, como el tubo de vacío de Lee De Forest o el circuito biestable (flip-flop) de Eccles y Jordan, base del almacenamiento de la informática actual.
Pascalina
Imagen | Wikipedia
En 1939 estalló la Segunda Guerra Mundial. Alan Turing había descrito la máquina que lleva su nombre en 1936, el mismo año en el que Konrad Zuse terminó el Z1, primer computador electro-mecánico.
Durante el conflicto se desarrollaron los anteriores conceptos y aparecieron otras máquinas de cálculo, como el Z3, ABC (de Atanasoff y Berry), y el Mark I --y Mark II-- de Aiken. Algunos meses después de finalizar la guerra el ENIAC ya estaba en marcha.
Hasta aquí el progreso de la informática había sido lento, consecuencia de siglos de descubrimientos en varias áreas del conocimiento.
Universidades, centros de investigación (como los Laboratorios Bell), y empresas como Hewlett-Packard ya existían e investigaban tecnologías directamente relacionadas con la computación o paralelas.
Probablemente el camino de la informática hubiera sido similar al de otras disciplinas técnicas, pero la llegada de la Guerra Fría, y su utilización con fines militares, le brindó el empujón económico y la motivación necesaria para catapultar su desarrollo.
Operadoras trabajando sobre el ENIAC
Imagen | Wikipedia
Los rusos tenían la bomba
Tras la Gran Guerra los que fueron aliados para combatir a Hitler, comenzaban a mirarse de reojo. Los primeros grandes ordenadores, como los citados Mark I y ENIAC, así como el Whirlwind, construido en el MIT (el primero en trabajar en tiempo real), se habían diseñado para realizar cálculos militares.
La señal de alarma para EE.UU. se encendió el día que los rusos detonaron su primera bomba atómica (22 de agosto de 1949). A partir de ese momento el miedo ante un posible ataque nuclear del enemigo se instauró.
Si EE.UU. quería proteger su territorio de un ataque con misiles, necesitaba una red de radares que transmitiera la información en tiempo real a través de líneas telefónicas convencionales, y la información que estos enviaban debía procesarse también en tiempo real.
La tarea se antojaba complicada, no existían máquinas que cubrieran tal necesidad. El radar era un invento relativamente nuevo, los ordenadores también (por entonces funcionaban con válvulas). Ambos sistemas nunca habían trabajado juntos. Era necesario un dispositivo de transmisión de datos que aún no estaba inventado (lo que después desembocaría en el módem). Se necesitaba un mecanismo para almacenamiento masivo de datos, y una pantalla que los mostrara... Todo un desafío que se concretó en el Proyecto Lincoln (1951), en el que intervinieron universidades y empresas privadas.
Elementos del computador Whirlwind
Imagen | Wikipedia
El MIT proporcionó el hardware con su Whirlwind I, una máquina diseñada inicialmente para simulación. Las comunicaciones corrieron a cargo del CRL (Cambridge Air Force Research Laboratory) y se creó el Lincoln Laboratory para aglutinar otros proyectos de investigación.
En esta primera etapa se empleaban 8K de memoria y sólo unos pocos miles de líneas de código, a todas luces insuficientes para atender las necesidades reales, pero el sistema fue creciendo a medida que resolvía problemas parciales.
Estos trabajos desembocaron en la puesta en funcionamiento de una estación experimental denominada Cape Cod (por su ubicación). Fue el primer sistema en utilizar el uso compartido en tiempo real en un ordenador (Whirlwind I), sistema de visualización CRT, lápiz óptico, interfaz gráfica de usuario en tiempo real (tal y como la conocemos hoy), y empleó el módem para transmitir datos por líneas telefónicas convencionales (aunque de uso exclusivo y alquiladas para la ocasión).
Consola de AN/FSQ-7
Imagen | Wikimedia Commons
A pesar de los problemas que supusieron los ecos de objetivos falsos, la baja calidad de la trasmisión de datos (funcionaba bien en la mitad de las ocasiones) y la baja velocidad de los aviones de hélice empleados para las pruebas, la estación Cape Cod fue capaz de emitir instrucciones para interceptar un objetivo con un error de sólo 1.000 metros; todo un logro para la época.
Whirlwind I fue un buen punto de partida, pero insuficiente para un entorno real más complejo. Nuevamente el MIT, esta vez junto a IBM, desarrolló la siguiente generación del Whirlwind, conocida como AN/FSQ 7 en versión de producción. Por su parte Bell perfeccionó el primitivo sistema de módem hasta conseguir que funcionara a 1.300 baudios en líneas telefónicas especialmente acondicionadas.
Proyecto SAGE
Cuando la fase de pruebas se dio por concluida, la puesta en funcionamiento de estaciones operativas corrió de la mano del Proyecto SAGE (Semi-Automatic Ground Environment). Cada sistema SAGE completo constaba de 24 equipos FSQ-7 , con un peso individual de 250 toneladas, y un consumo por unidad de 3.000 kilovatios. Estos monstruos, que funcionaban a 0,17 Mhz, se alojaron bajo tierra al ser en sí mismos un objetivo militar. Tales instalaciones inspiraron la película Juegos de Guerra.
Sala de control SAGE
Imagen | Wikipedia
Consecuencia directa de las estaciones SAGE fue el modo en que se resolvió el problema del almacenamiento de datos mediante tambores magnéticos, y la técnica de lectura y escritura independiente de memoria que hoy conocemos como DMA. La primera estación SAGE entró en funcionamiento en 1958, y alguna de ellas ha permanecido operativa hasta 1983.
Traducción automática
Otro de los "inventos" potenciados por la Guerra Fría fue la traducción automática. IBM presentó en 1952 el equipo más avanzado, flexible y veloz del mundo: el IBM 701, sobre el que se trabajó para que realizara traducciones. Dos años más tarde era capaz de procesar 250 palabras con seis reglas gramaticales.
Los documentos interceptados a los rusos sobre cualquier área científica o militar requerían traducción, siendo realizada ésta por personas especializadas (no sólo en el idioma del enemigo, sino en cada ámbito o disciplina concreta). El coste individual por traducción y la dificultad de encontrar especialistas suficientes potenciaron la necesidad de tener un mecanismo de traducción automática.
IBM 701
Imagen | IBM
Todos los intentos de hacer un sistema fiable fracasaron. En 1966 ALPAC (Automatic Language Processing Advisory Committee) publicó un informe sobre el estado del análisis y digitalización de documentos en ruso para el uso militar de EE.UU., tildando de fracaso los avances conseguidos en traducción automática.
Este revés hizo que se volviera a la traducción "manual" y se abandonara la linea de investigación, que no volvió a ser considerada hasta la década de los 80. Se perdió así la oportunidad de profundizar en un campo que ahora resulta casi imprescindible con el uso de Internet.
Internet
En Genbeta dedicamos hace tiempo un especial sobre la historia de Internet, por lo que no voy a entrar en detalles aquí. En aquel artículo se explicó que no es exactamente cierto que ARPANET, precursora de Internet, fuera una red pensada para sobrevivir a un ataque nuclear, pero sí nació en el seno de una organización consecuencia de la Guerra Fría. Por eso se menciona ahora, aunque sólo de forma testimonial. Todos los detalles los tenéis en el trabajo mencionado.
Simulación
Aunque líneas arriba se ha mencionado de pasada, el estudio de la simulación por ordenador tuvo gran importancia durante la Guerra Fría para resolver problemas de índole militar (trayectorias de misiles, satélites, etc.), además de su aplicación en campos como la simulación de vuelo para pilotos de la fuerza aérea.
Imagen | Wikipedia
Además de los trabajos realizados en el MIT, IBM destacó particularmente en esta disciplina durante la década de los 60, comercializando entonces, y para uso civil, el sistema GPSS (General Purpose System Simulator). Con fines inicialmente militares también se desarrolló un lenguaje de programación para simulación por ordenador, SIMSCRIPT.
Almacenamiento
Probablemente uno de los aspectos que más aceleró la Guerra Fría fueron los avances en sistemas de almacenamiento. No sólo era necesario almacenar, tratar y conservar de forma permanente los datos propios generados, sino también toda la documentación interceptada o intervenida al enemigo por distintos medios, incluido el espionaje.
Compañías como IBM se especializaron en las tarjetas perforadas durante la década de los 20 y los 30, que en aquella época cumplían su función. En 1937 IBM producía 10 millones de tarjetas perforadas por día (capacidad de almacenamiento equivalente de 670 MB). Hasta 1950 se empleó de forma mayoritaria este medio de almacenar información.
Imagen | Wikipedia
Las necesidades de almacenamiento militares y de la industria en general, promovieron la investigación en este campo durante a década de los 50. El UNISERVO de UNIVAC era capaz de leer datos de una cinta magnética de metal (aleación de cobre y niquel), con una velocidad de transferencia de 7.200 caracteres por segundo. IBM por su parte desarrolló un sistema de almacenamiento sobre cinta de plástico cubierta de material ferromagnético, que se introdujo en 1952 en la serie 700.
Los tambores magnéticos fueron los precursores de los actuales discos duros mecánicos. Al contrario que los dispositivos modernos, donde las cabezas son las que buscan información sobre la superficie del plato, el tambor disponía de cabezas fijas y la información era accesible cuando se enfrentaba con la cabeza. Estos tambores, que llegaron a girar a más de 12.000 revoluciones por minuto, se emplearon de forma principal hasta finales de los 50. Su capacidad permitía almacenar unos pocos miles de bytes.
Imagen | Wikipedia
La memoria de núcleo magnético Fuente Artículo

Que opina? Las últimas palabras de Steve Jobs, que Steve Jobs no dijo ni de coña en su lecho de muerte. - 31/12/2015 9:39:00

Este 2015 ha corrido como la pólvora por las redes sociales las supuestas últimas palabras de Steve Jobs en su lecho de muerte, mostrando a un arrepentido Steve Jobs por haber llevado una vida basada en la búsqueda de la riqueza y lamentando que todas las cosas por las que ha vivido no se las podría llevar una vez muriera.

"No dejar de perseguir la riqueza, puede convertir a una persona en un retorcido, al igual que yo", reza uno de los párrafos de nuestro supuesto Steve Jobs arrepentido.

Millones de veces se han compartido y decenas de millones de "likes" han recibido, pues supongo que es un mensaje que a la mayoría le gusta escuchar. El problema es que es totalmente falso. Y no sólo rotundamente falso, sino que el simple hecho de pensar que Jobs pudo decir semejante cosa, es no entender quién fue Steve Jobs, ni lo que hizo, ni por qué lo hizo.

Esta es una captura de las inventadas últimas palabras de Steve Jobs, mostrando un aspecto demacrado debido a su avanzada enfermedad.


¿Por qué son falsas estas palabras?

En primer lugar, ninguna biografía las ha recogido. De hecho, ya publicamos cuáles fueron sus últimas palabras, recogidas en la biografía oficial de Steve Jobs, de Walter Isaacson, y como podemos comprobar, distan mucho sus verdaderas palabras de las mencionadas en ese falso texto.

Luego supimos que antes de dejar de respirar definitivamente, en su último aliento y en compañía de su hermana, lo único que dijo Jobs fue "Oh Wow".

El autor de este falso escrito, es evidente que no conoce prácticamente nada de Steve Jobs, pues Jobs no perseguía la riqueza, sino cambiar el mundo. La riqueza sólo fue la consecuencia de un trabajo bien hecho.

El texto nombra varias veces a Dios, cuando el propio Steve Jobs reconocía que creía en Dios al 50%, y no porque creyera en Dios un poquito, sino porque quería pensar que podría vivir después de la muerte, para no perder toda la sabiduría acumulada en una vida. Luego lo pensaba mejor, y decía que probablemente todo fuera como un botón de encendido y apagado.

Si personas como Steve Jobs no hubieran tenido la pasión necesaria para hacer lo que hacían de la forma que lo hacían, hubieran privado al mundo de grandes avances de los que hoy día todos nos beneficiamos.

Y es que Steve Jobs ha transformado completamente hasta 6 industrias distintas. Incluso si de algo hubiera podido arrepentirse, sería de tratar de forma despiadada a algunas personas, aunque incluso para eso tenía una respuesta: "Cuando estás cambiando el mundo, no puedes ser blando con la gente".

Así que siento decirle a aquellas personas que han encontrado en esas falsas palabras una excusa para ser conformistas, al observar a un ídolo arrepentirse por haber sido ambicioso, que no, Jobs murió orgulloso de su creación, y con un único arrepentimiento: no haber vivido más tiempo para seguir haciendo exactamente lo mismo que estaba haciendo. Ni más ni menos.

Finalmente, la cama del hospital tiene el mismo precio para todos. Si persigues la riqueza, morirás de la misma forma que si persigues la pobreza. Morirá el que persigue sus sueños, y morirá el que perseguía el conformismo.

Por eso, finalmente, no hay que preocuparse tanto de cómo muere una persona, sino de cómo vive esa persona y de la huella que deja en esta vida. Y Steve Jobs ha dejado huella. Tuvo un propósito.

Ver: Los 6 defectos de Steve Jobs que, unidos entre sí, se convirtieron en genialidad.

Fuente Artículo

Consulte Información de Gana lo que quieras Aplicativo Skype y Empresa Sony
Consulte Información de Gana Emprendedor Web 5 innovaciones que cambiarán nuestras vidas. y eAdministración favorece la comunicación directa con el ciudadano
Consulte la Fuente de este Artículo
Bitacoras.com

No hay comentarios: