lunes, 15 de febrero de 2016



Innovación técnica y 

desarrollo 

sustentable

Supercomputadora

Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy superiores a las computadoras comunes y de escritorio y que son usadas con fines específicos. Hoy día los términos de supercomputadora y superordenador están siendo reemplazados por computadora de alto rendimiento y ambiente de cómputo de alto rendimiento, ya que las supercomputadoras son un conjunto de poderosos ordenadores unidos entre sí para aumentar su potencia de trabajo y rendimiento.
Al año 2011, los superordenadores más rápidos funcionaban en aproximadamente más de 1 petaflops (que en la jerga de la computación significa que realizan más de 1000 billones de operaciones por segundo). La lista de supercomputadoras se encuentra en la lista TOP500

Las supercomputadoras fueron introducidas en la década de 1970 y fueron diseñadas principalmente por Seymour Cray en la compañía Control Data Corporation (CDC), la cual dominó el mercado durante esa época, hasta que Cray dejó CDC para formar su propia empresa, Cray Research. Con esta nueva empresa siguió dominando el mercado con sus nuevos diseños, obteniendo el podio más alto en supercómputo durante cinco años consecutivos (1985-1990)
Las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente grandes.

Inteligencia artificial



La inteligencia artificial (IA) es un área multidisciplinaria, que a través de ciencias como las ciencias de la computación, la matemática, la lógica y la filosofía, estudia la creación y diseño de sistemas capaces de resolver problemas cotidianos por sí mismos, utilizando como paradigma la inteligencia humana.
 existen distintos tipos de percepciones y acciones, que pueden ser obtenidas y producidas, respectivamente, por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia, como ajedrez de computador, y otros videojuegos.
La IA se divide en dos escuelas de pensamiento:
·         La inteligencia artificial convencional
·         La inteligencia computacional
Inteligencia artificial convencional
Se conoce también como IA simbólico-deductiva. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas:
·         Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos y, aparte de que son muy importantes, requieren de un buen funcionamiento.
·         Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y ocupa de ciertas reglas o relaciones.
·         Redes bayesianas: Propone soluciones mediante inferencia probabilística.
·         Inteligencia artificial basada en comportamientos: Esta inteligencia contiene autonomía y puede auto-regularse y controlarse para mejorar.
·         Smart procesos malajemente: Facilita la toma de decisiones complejas, proponiendo una solución a un determinado problema al igual que lo haría un especialista en la dicha actividad.
Inteligencia artificial computacional

La Inteligencia Computacional (también conocida como IA su simbólica-inductiva) implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos.
                                      
                                                   GRAFENO


 El grafeno es una alotropía del carbono. Pero ¿Qué es una alotropía? pues bien es una propiedad química que poseen algunos materiales y que son alotrópicos cuando se pueden presentar en diferentes estructuras (el mismo material puede ser materiales diferentes).
   Por ejemplo el carbono se puede presentar como diamante, como grafito y también, como no, como grafeno. El grafeno ahora mismo está en proceso de investigación, y se supone que los resultados van a dar un material con enormes posibilidades, tantas como tuvo en su día el plástico, ya que estará en todas partes. Las 5 grandes propiedades que hacen tan fantástico al grafeno son las siguientes.


Caracteristicas:
 Es muy resistente (200 veces más que el acero, es el más resistente del mundo)
   - Duro ( no se ralla).
   - Es flexible (se puede enrollar)
   - Tiene una alta conductividad térmica y lo que es mejor eléctrica.
   - Y además es un material muy ligero.

   Todavía no hay aplicaciones prácticas de este material, pero los expertos creen que entre otras aplicaciones, se podría usar en pantallas sensibles al tacto, para fabricar computadoras más rápidas o en celdas solares.

   Es por eso que os traemos esta fantástica presentación y un video para conocer mejor este material del futuro no muy lejano llamado Grafeno.

   Para ver esta presentación tienes que pinchar en Start prezy y luego ir pinchando en las flechas que aparecen en la parte de abajo. Puedes verla a pantalla completa.

Redes neuronales
Las redes de neuronas artificiales (denominadas habitualmente como RNA o en inglés como: "ANN"1 ) son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.
Una red neuronal se compone de unidades llamadas neuronas. Cada neurona recibe una serie de entradas a través de interconexiones y emite una salida. Esta salida viene dada por tres funciones:

1.   Una función de propagación (también conocida como función de excitación), que por lo general consiste en el sumatorio de cada entrada multiplicada por el peso de su interconexión (valor neto). Si el peso es positivo, la conexión se denomina excitatoria; si es negativo, se denomina inhibitoria.
2.   Una función de activación, que modifica a la anterior. Puede no existir, siendo en este caso la salida la misma función de propagación.

3.   Una función de transferencia, que se aplica al valor devuelto por la función de activación. Se utiliza para acotar la salida de la neurona y generalmente viene dada por la interpretación que queramos darle a dichas salidas. Algunas de las más utilizadas son la función sigmoidea (para obtener valores en el intervalo (0,1)) y la tangente hiperbólica(para obtener valores en el intervalo (-1,1))

No hay comentarios:

Publicar un comentario