Mostrando entradas con la etiqueta ROBOTICA. Mostrar todas las entradas
Mostrando entradas con la etiqueta ROBOTICA. Mostrar todas las entradas

martes, 27 de junio de 2017

Escalofriante: Vuelve Sofía, el robot que prometió aniquilar la humanidad (VIDEO)

Sofía prometió destruir la humanidad, el robot volvió a presentarse ante las cámaras sorprendiendo con sus opiniones.





jueves, 25 de mayo de 2017

¿Elon Musk es Nikola Tesla Reencarnado?



Nikola Tesla dijo acertadamente que el futuro mostrará los resultados y juzgará a cada uno de acuerdo a sus logros. ¿Y quien esta consiguiendo los logros deseados de corazón por Tesla hoy en día?. Su nombre es Elon Musk.

Musk tiene un Plan Maestro muy inteligentemente desarrollado que bien parece ser el mismísimo Nikola Tesla reencarnado. ¿Ha llegado la hora de hacer justicia etérica al genio de Nikola Tesla?. 

Entrevista de Ferran Prat de Sabiens al informático Xavi Cerro para que saquen sus propias conclusiones...




fuente/Sabiens

lunes, 8 de mayo de 2017

Obsoletos: El Ser Humano podría ser innecesario en un Futuro dominado por Robots.(Vídeo)

LA ECONOMÍA CRECE Y CADA VEZ MÁS TRABAJOS SON AUTOMATIZADOS, ¿SERÁ QUE EN EL FUTURO EL SER HUMANO SE VUELVA OBSOLETO? ESTO ES LO QUE EXPLORA EL DOCUMENTAL 'OBSOLETE'.

El ser humano ha priorizado el crecimiento económico a todo tipo de crecimiento y desarrollo. Esto nos está colocando en un punto de inflexión en el que la eficiencia de la tecnología presenta una amenaza para el desarrollo de la clase trabajadora humana. Esto es lo que explora el documental Obsolete, en el que Aaron y Melissa Dykes argumentan que en el futuro próximo los seres humanos deberán ser muy cuidadosos si no quieren convertirse en una carga innecesaria para las compañías que impulsan la economía global.

El documental nota una clara tendencia que ya es alarmante en países como Estados Unidos: el desempleo tecnológico. Coches que se conducen solos, robots que hacen hamburguesas, algoritmos que te dicen qué hacer. La economía sigue creciendo --obligada y en esteroides-- pero hay menos trabajos. Esto, por supuesto, tiende a la desigualdad, y no parece haber marcha atrás. Como dice uno de los fundadores de Apple, Steve Wozniak: "estamos haciendo máquinas que hacen todo por nosotros, y son tan importantes que no podemos apagarlas. No podemos ya apagar el Internet, apagar nuestro teléfono".

Al sugerir que el ser humano podría convertirse en obsoleto, no necesariamente se suscribe a la idea de que surgirán supercomputadoras inteligentes (estilo Skynet) que tomarán control del mundo. Lo que es más probable es que simplemente esto aumentará la brecha entre la élite económica y las clases trabajadoras, acaso como mantiene en su libro Homo Deus Yuval Noah Harari. Harari sugiere que la tecnología y el poder económico permitirán que ciertas personas aumenten sus capacidades cognitivas y mejoren su salud, mientras que la mayoría de nosotros quedará rezagada, como si fuéramos otra raza, acaso una diferencia similar a la que hay ahora entre los humanos y algunas especies de primates.

Esta es una visión bastante radical, que sin duda podría ser paliada con un poco de empatía, compasión y ética. Un poco de humanismo en la economía. Douglas Rushkoff, en su libro Throwing Rocks at the Google Bus, escribe sobre la ética (o falta de ética) que predomina en nuestra economía:

Un modelo de negocios digitalmente cargado que enfatiza la eficiencia y el crecimiento de las compañías a expensas de los seres humanos a los cuales debería estar sirviendo... De alguna manera, el crecimiento se ha vuelto un fin en sí mismo --el motor de la economía-- y los seres humanos han llegado a ser entendidos como impedimentos para su funcionamiento. Si tan sólo las personas y nuestras demandas idiosincráticas pudieran ser eliminadas, los negocios estarían libres para reducir costos, incrementar el consumo, extraer más valor y crecer más. Esta es una de las principales herencias de la era industrial, cuando la milagrosa eficiencia de las máquinas parecía ofrecernos un camino hacia el crecimiento infinito --al menos en la medida en que la interferencia humana podía minimizarse. Aplicar este mismo ethos a la era digital significa reemplazar a la recepcionista con una computadora, al trabajador de una fábrica con un robot y al gerente con un algoritmo. Al final todo es sólo una nueva y digital forma de operar con el mismo programa.



fuente/pijamasurf

martes, 21 de marzo de 2017

Las IA o Inteligencias Artificiales entran en el diseño gráfico multimedia.

Uno de estos dos videos publicitarios japoneses fue creado por un experto en audiovisual, mientras que el otro lo ha realizado una IA o inteligencia artificial. 

¿Serías capaz de saber cual lo hizo un robot o IA?







Si pensaste que era el primero...acertaste. Felicidades

lunes, 24 de octubre de 2016

¿Será el principio del fin de las relaciones de pareja?...

Londres acogerá la polémica conferencia dedicada al sexo con robots.

Varios expertos mundiales en robótica planean reunirse a finales de diciembre en el Reino Unido durante la conferencia internacional dedicada al tema del sexo con inteligencia artificial.

Este insólito evento, el cual fue considerado ilegal en Malasia, tendrá lugar entre el 19 y el 20 de diciembre en la Universidad Goldsmiths de Londres y reunirá a los científicos más eminentes en el campo de la robótica.

"Considero que la inteligencia artificial puede convertirse en nuestro amante en el futuro. ¿Tiene que ser recíproco el amor para ser válido?", se pregunta la doctora Kate Devlin, organizadora del evento, citada por el medio británico Daily Mirror.

Sin embargo, no todos los científicos comparten el entusiasmo de Devlin. Según el sexólogo ruso Lev Shcheglov el uso de los robots con tales fines podría tener efectos permanentes perjudiciales en la salud mental de las personas.

"Para la mayor parte de la gente el sexo con inteligencia artificial no es bueno ya que es una imitación errónea… Puede causar desórdenes psicopáticos y aislamiento social. El sexo con un robot no traerá el efecto emocional que trae la relación con una persona", dijo Shcheglov en una entrevista a Sputnik.

fuente/mundo.sputniknews.com

Resultado de imagen de robots mujer

Resultado de imagen de robots mujer
Resultado de imagen de robots mujer

jueves, 28 de abril de 2016

ROBÓTICA MILITAR.

Los robots asesinos amenazan con provocar una nueva carrera armamentística.


Imaginemos una situación totalmente futurista: una coalición encabezada por EEUU dispuesta a erradicar el ISIS está asediando Raqa. La fuerza militar internacional libera un mortífero grupo de robots voladores que sobrevuelan la ciudad en busca del enemigo.

Haciendo uso de un sistema tecnológico de reconocimiento de identidad, los robots localizan y aniquilan a la cúpula del ISIS, lo que supone el principio del fin de la organización terrorista. Totalmente desmoralizados, los combatientes del ISIS son derrotados, reduciendo al mínimo la pérdida de vidas civiles y de las tropas aliadas. En ese caso, ¿quién pondría en duda el buen uso de la tecnología? Los expertos en inteligencia artificial son los que más saben sobre la tecnología necesaria para desarrollar ese armamento.

En una carta abierta publicada en julio del año pasado, un grupo de investigadores advertía de que la tecnología había alcanzado un punto en el que la puesta en marcha de Sistemas de Armas Autónomos Letales (Laws, por sus siglas en inglés) sería una realidad en cuestión de años, no décadas. A diferencia del armamento nuclear, estos sistemas podrían producirse en masa, convirtiéndose en los "Kalashnikov del mañana". "Será solo cuestión de tiempo que aparezcan en el mercado negro y que caigan en manos de terroristas, de dictadores deseosos de controlar a sus ciudadanos y de señores de la guerra que quieran llevar a cabo una limpieza étnica", explicaban. "Empezar una carrera armamentística basada en la inteligencia artificial no es una buena idea y debería contenerse con una prohibición del armamento autónomo que escapa al control humano".

Para empezar, EEUU ya ha renunciado al uso de armamento autónomo. Este mes, 94 miembros de Naciones Unidas se reunieron en Ginebra para redactar un acuerdo internacional que limitara su uso. El principal motivo es de carácter ético: dar a los robots licencia para acabar con vidas humanas supone cruzar un límite que siempre debería respetarse. Jody Williams, que ganó el premio Nobel de la Paz por hacer campaña contra las minas antipersonales, es la portavoz de la Campaña para detener a los robots asesinos. En su opinión, el armamento autónomo es más peligroso que las armas nucleares. ¿Dónde vamos a llegar si pensamos que es correcto ceder el poder de decidir sobre la vida y la muerte a un robot? Además del planteamiento ético, hay otras cuestiones que resultan preocupantes. ¿Reduciría el uso de robots asesinos el número de bajas en una batalla aumentando a su vez las posibilidades de un conflicto? ¿Cómo podría contenerse la proliferación de este tipo de sistemas? ¿Quién sería responsable en el caso de que algo fallara?

El problema es que, cuanto más de cerca se examina la posibilidad de su uso en una situación de conflicto, más difícil resulta establecer los límites morales. Los robots (con una autonomía limitada) ya se han desplegado en el campo de batalla para fines muy concretos, como la desactivación de minas y los sistemas antimisiles. En este sentido, todo apunta a que uso tendrá un crecimiento exponencial. El Centro para una nueva Seguridad Americana calcula que el gasto global en robots militares alcanzará los 5.700 millones de dólares anuales de aquí a 2018, dato que contrasta con las previsiones de gasto de robots de uso industrial y comercial, que ascienden a 43.000 millones de dólares. 

El organismo, que opera desde Washington, apoya el desarrollo de estos sistemas, argumentando que pueden "mejorar la capacidad de aventajar a los adversarios". Con el lenguaje aséptico que le caracteriza, la industria armamentística hace una clara distinción entre los distintos niveles de autonomía. 

El primero incluye a los drones que utilizan EEUU y otros ejércitos. Aunque un dron es capaz de identificar un objetivo, para activarlo es necesario que una persona presione un botón. 

En el segundo nivel de autonomía, las personas supervisan sistemas ofensivos robotizados como las baterías antimisiles. El tercer tipo, que corresponde al de los drones con plena autonomía, es potencialmente el más peligroso y seguramente el más fácil de prohibir. 

Los expertos en inteligencia artificial deberían sin duda tener un reconocimiento por haber sacado a la luz este debate. Como en tantas áreas, nuestra sociedad, antes de controlar, todavía tiene que asimilar los impresionantes avances tecnológicos de los que está siendo testigo.

fuente del texto/expansion.com





Top 10 Robots más avanzados y asombrosos

sábado, 22 de agosto de 2015

Stephen Hawking (y otras 16.000 personas) contra los 'robots asesinos'

Una carta abierta pide a Gobiernos de todo el mundo que no desarrollen armas completamente autónomas



Las armas completamente autónomas aún no son una realidad, pero casi. Han sido bautizadas como 'robots asesinos', y se cree pueden ser la causa de una nueva y terrible revolución armamentística. Ahora, más de 16.000 expertos en Inteligencia Artificial y otras ramas de la ciencia (entre ellos, Hawking o Steve Wozniak) piden a los Gobiernos en una carta abierta que no las desarrollen. Por Yaiza Martínez.


Esta semana se ha hecho pública una carta abierta firmada por más de 16.000 personas, la mayoría de ellas investigadores de Inteligencia Artificial y robótica, en la que se pide la prohibición de armas autónomas capaces "de seleccionar y atacar objetivos sin intervención humana alguna". 

La presentación de la carta fue realizada aprovechando la inauguración de  
la Conferencia de Inteligencia Artificial (IJCAI) que se celebra entre el 25 y el 31 de julio en Buenos Aires (Argentina)

Entre sus firmantes están 
el célebre astrofísico Stephen Hawking, el famoso director general del fabricante de coches eléctricos TeslaElon Musk; el lingüista estadounidense Noam Chomsky o el cofundador de Apple, Steve  Wozniak. El documento constituye un nuevo aviso de los peligros potenciales de la inteligencia artificial (IA) aplicada al terreno militar, según Le Monde.  

Máquinas soldado y helicópteros selectivos 

Pero, ¿qué peligrosas máquinas señalan los expertos como temibles? Por ejemplo, los  cuadricópteros o quadcopters armados (un tipo de helicópteros con cuatro hélices), capaces de buscar y eliminar a personas que cumplan con ciertos criterios predefinidos, o las máquinas para sustituir a soldados humanos en los campos de batalla. 

Según los firmantes de la carta abierta, la tecnología de Inteligencia Artificial (IA) ha llegado a un punto en que permite el desarrollo de este tipo de sistemas, y hay mucho en juego, consideran, pues las armas autónomas se han descrito ya como la tercera revolución bélica de la humanidad, tras la pólvora y las armas nucleares.
 

"La pregunta clave para la humanidad actual es si desea iniciar una carrera mundial de armas de IA o evitar que esta se inicie. Si alguna potencia militar sigue adelante con el desarrollo de armas de IA, será prácticamente inevitable que esa carrera mundial de armas se produzca. El punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana. A diferencia de las armas nucleares, las armas autónomas no requieren de materias primas costosas o difíciles de obtener, por lo que se convertirán en armas ubicuas y baratas, que todos los poderes militares podrán producir en masa. Sólo será cuestión de tiempo que (estas armas) aparezcan en el mercado negro y caigan en manos de terroristas, dictadores que deseen controlar mejor a su población, de señores de la guerra que deseen perpetrar limpiezas étnicas, etc. Las armas autónomas son ideales para objetivos tales como asesinatos, la desestabilización de países o el sometimiento de poblaciones  matando selectivamente a grupos étnicos particulares. Por ello, creemos que una carrera de armas IA no resultarábeneficioso para la humanidad", escriben los especialistas.

El peligro de la impunidad 

Los autores de la presente carta hablan en realidad de unfuturible, porque las armas completamente autónomas como tal aún no existen. Sin embargo, están cada vez más cerca, pues sí que existen ya, por ejemplo, sistemas "semiautónomos", como los aviones no tripulados capaces de despegar, volar y aterrizar sin dirección humana alguna. 

El pasado mes de abril, delegados de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales se reunieronen Ginebra (Suiza) para hablar sobre estas armas completamente autónomas (que han sido bautizadas como 'robots asesinos') y sus potenciales peligros. 

Con motivo de esta reunión, la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard y la organización Human Rights Watch publicaron entonces el informe “Mind the Gap: The Lack of Accountability for Killer Robots” (“¡Cuidado con la brecha!: La falta de rendición de cuentas de los robots de combate”), en el que se señala el riesgo de que programadores, fabricantes y personal militar queden exentos de toda responsabilidad penal por las muertes que podrían ocasionar estas armas, por lo que es necesario un tratado internacional de prohibición de su fabricación. 

“El vacío en la rendición de cuentas significa que no hay disuasión para futuros delitos, ni reparación para las víctimas, ni ninguna condenación social del responsable”, ha señalado en un comunicado de Human Rights WatchBonnie Docherty, investigadora principal de la división de Armas de la organización y autora principal del informe.

“Los numerosos obstáculos a la justicia que afrontan las potenciales víctimas demuestran por qué necesitamos con urgencia una prohibición de las armas completamente autónomas”, añade Docherty. 

Evitar un escenario oscuro 

En 2007, ya se alertó de la posibilidad de que el hecho de que se pierda el control sobre la inteligencia artificial armada pueda llevarnos a un escenario bastante oscuro. Lo hizo un equipo internacional de científicos y académicos pertenecientes a EURON (EUropean RObotics research Network). Estos especialistas elaboraron además un prototipo de “código de ética” para los robots. 

Entre sus recomendaciones se destacaba la necesidad de asegurarse el control de los humanos sobre los robots, la prevención de su utilización nociva o ilegal, la protección de los datos que éstos obtengan y el seguimiento exhaustivo de su actividad. Las recomendaciones actuales, como vemos, son aún más radicales: la prohibición absoluta de este uso bélico de la tecnología.

fuente/ Tendencias21






Los robots militares autónomos que combatirán en las guerras del futuro deben ser programados para regirse por un estricto "código militar". De lo contrario, el mundo se arriesga a sufrir atrocidades indecibles en sus manos de acero.
Revela Leo Lewis en The Times que un prolijo informe preparado y financiado por la Oficina de Investigación Naval, un organismo secreto y de alta tecnología perteneciente a la Marina de Estados Unidos, realiza esta cruda advertencia e incluye también consideraciones acerca de un eventual escenario al estilo de 'Terminator' en el que los robots se vuelvan contra sus dueños humanos.
El informe, el primer trabajo serio de esta índole sobre la ética de los robots soldados, prefigura para un futuro cada vez próximo una era en la que los robots serán suficientemente inteligentes como para tomar decisiones en el campo de batalla que hasta ahora se han reservado a los humanos. Al final, advierte, los robots podrían llegar a desarrollar ventajas cognitivas relevantes sobre los soldados de la especie Homo Sapiens.
"Hay un error muy común que consiste en creer que los robots sólo harán lo que estén programados para hacer", afirma Patrick Lin, el coordinador del informe.
"Desgraciadamente, tal creencia es gravemente obsoleta: data de un tiempo en el que los programas sólo podían ser escritos y comprendidos por una única persona".
La realidad, dice Lin, es que los programas modernos tienen códigos de millones de líneas y que los escriben equipos de programadores, ninguno de los cuales conoce el programa completo. En consecuencia, ningún individuo podría predecir con exactitud cómo interactuarían las distintas partes de los programas grandes sin realizar análisis extensivos sobre el terreno; una opción que podría o bien no estar disponible o bien ser deliberadamente desactivada por los diseñadores de los robots soldados.
La solución, sugiere, es combinar una programación basada en las normas con un periodo de 'aprendizaje' de las cosas que se pueden y no se pueden hacer en la guerra.
Avances en inteligencia artificial
El informe cubre una rica variedad de escenarios en los que se perfilan los asuntos éticos, legales, sociales y políticos que se plantearán cuando la tecnología robótica progrese. ¿Cómo protegeremos nuestros ejércitos de robots contra los 'hackers' de bandas terroristas o los fallos informáticos? ¿A quién se culparía si un robot se vuelve loco ante una multitud de civiles: al robot, a su programador, al presidente de EEUU? ¿Deberían tener los robots una 'opción suicidio' o deberían ser programados para defender su vida?
El informe, coordinado por el departamento de Ética y Tecnología Emergente de la Universidad Politéctica Estatal de California, advierte duramente al ejército estadounidense contra la complacencia y los atajos, ahora que los diseñadores de robots militares están metidos en la carrera por llegar al mercado y se está incrementando el ritmo de los avances en inteligencia artificial.
La sensación de premura entre los diseñadores puede haberse visto acentuada por el mandato del Congreso para que en 2010 una tercera parte de todos los aviones de ataque operativos sean no pilotados y en 2015 lo sean también una tercera parte de todos los vehículos de combate de infantería.
"La carrera por llegar al mercado incrementa el riesgo de un diseño o una programación inadecuados. Peor aún: sin un esfuerzo importante y sostenido para inculcar códigos éticos a los sistemas autónomos, hay poca esperanza de que las primeras generaciones de tales sistemas y robots resulten apropiados, pues cometerían errores que podrían costar vidas humana", advierte el informe.
Un sencillo código ético en la línea de las 'Tres Leyes de la Robótica' que postuló en 1950 Isaac Asimov, el escritor de ciencia ficción, no será suficiente para garantizar un comportamiento ético por parte de las máquinas militares autónomas.
"Vamos a necesitar un código", sentencia Lin. "Estos artilugios son militares, y no pueden ser pacifistas, así que tenemos que pensar en términos de la ética de la guerra. Vamos a necesitar un código del guerrero"

martes, 28 de julio de 2015

¿Cuál es la próxima revolución tecnológica, según Michio Kaku?

El futurólogo estadounidense dio una conferencia en la Aldea Digital Telcel 4GLTE–Infinitum que se realiza en el Zócalo capitalino

El científico destacó que en el futuro dejaremos de hablar de internet y computadoras porque será algo muy común, como lo es hoy la electricidad. Foto: Aldea Digital

La humanidad vivirá una cuarta revolución tecnológica, basada en la biotecnología y la nanotecnología, las cuales dentro de cinco años modificarán la forma de interactuar de las personas, así como la atención médica e incluso el entretenimiento, afirmó el futurólogo Michio Kaku.

En su conferencia 'La física del futuro', realizada en el marco del encuentro tecnológico Aldea Digital Telcel 4GLTE–Infinitum, el científico explicó que en 1800 el mundo vivió la primera gran revolución tecnológica con las maquinas a vapor, posteriormente llegó la revolución basada en la electricidad y posteriormente llegó la de las computadoras, una tercera evolución tecnológica basada en las computadoras y los microprocesadores.

El físico estadunidense agregó que esa tercera revolución tecnológica que vive hoy mismo la sociedad, permite que un teléfono inteligente, sea más poderoso que las computadoras utilizadas en el programa aeroespacial de Estados Unidos en 1969, cuando colocó a dos hombres en la luna.

Por ello la gente se pregunta hoy cuál será la siguiente revolución y esa será la molecular, la que se basa en la biotecnología y la nanotecnología, donde en el futuro dejaremos de hablar de internet y computadoras porque será algo muy común, como lo es hoy la electricidad”, agregó el físico estadounidense.

Durante la concurrida conferencia, Michio Kaku reconoció el éxito de Aldea Digital Telcel 4GLTE–Infinitum al acercar el conocimiento digital a toda la población e impulsar a México al futuro. El científico destacó que este encuentro es la muestra de un gran despliegue de tecnología para que toda la población aprenda, se entretenga y se comunique.

"Cuando pienso en México yo veo un cohete enorme que está a punto de lanzarse, veo una población entusiasta.Ustedes son ese cerillo, esa chispa que va a mandar este cohete de México al espacio", comentó el físico ante los asistentes.

Durante el segundo día de actividades de Aldea Digital Telcel 4GLTE–Infinitum, que se lleva a cabo en el Zócalo de la Ciudad de México, también se contó con la presencia de Jesús Saucedo, con la conferencia “Tendencia de la tecnología y su impacto en el futuro de las empresas digitales”, donde habló sobre las herramientas de que disponen hoy las empresas, sin importar su tamaño o giro de negocio, para ser más productivas.

Las actividades de Aldea Digital Telcel 4GLTE – Infinitum continuarán ininterrumpidamente en la Plaza de la Constitución hasta el próximo 26 de julio, todos los días de las 10:00 a las 22:00 horas.

kgb

fuente/dineroenimagen.com

Japón crea mujeres Robots para venderlas como objetos sexuales.


En el horizonte empieza a aparecer uno de los mercados posiblemente más fructíferos y rentables del futuro: el de los robots sexuales.

Ahora parece una idea de Ciencia Ficción, pero ya se están sentando las bases para ello.

Cada vez los robots son más parecidos a los humanos y por razones obvias, los diseñadores crean robots que deliberadamente tienen un aspecto joven y atractivo.

Un ejemplo de prototipo de robot cuya función futura puede ser el de sustituir a mujeres de carne y hueso ha sido creado en Japón y se llama “Asuna”.





Evidentemente Asuna no es un robot sexual pero los expertos dicen que es sólo cuestión de tiempo que este tipo de tecnología sea adaptada para tales fines.

De hecho, hay empresas en Japón que ya están creando muñecas sexuales con una textura de piel tan perfecta que es “indistinguible de la real”…

“Será posible mantener relaciones físicas con este tipo de androides”, sostiene Takahashi Komiyama.

Los androides sexuales son una posibilidad que debemos empezar a valorar.

Hay gente que se ha enamorado de personajes virtuales animados, así que no debemos descartar relaciones con robots.

De hecho, Japón ya cuenta con las muñecas sexuales más avanzadas del mundo, tales como las fabricadas por KanojoToys o por Orient Industry.

Por ejemplo, las muñecas de la línea Yasuragi (que en japonés significa paz mental) resultan extremadamente realistas.







Incluso personajes como Lady Gaga, impresionada por la calidad de las muñecas, ha pedido que hagan muñecas con su propia imagen.

Y Asuna está lejos de ser el único androide femenino que se desarrolla en Japón en estos momentos.

En el siguiente video, se puede ver claramente hacia donde nos dirijimos…

Con el tiempo, Levy predice que será bastante normal que la gente compre robots como compañeros y amantes. “Yo creo que los robots sexuales serán una bendición para la sociedad”, dice. “Hay millones de personas ahí fuera que, por una u otra razón, no pueden establecer una buena relación”.

David Levy

“Yo preveo que esto sucederá hacia mitades de siglo, si hablamos de robots que puedan ejercer de compañeros, amantes o incluso cónyuges”.

Ahora todo esto parece ciencia ficción, pero pronto será una realidad cotidiana…y el reflejo más claro de que nos estamos deshumanizando cada vez más…








Traducción y adaptación: elrobotPescador

Fuente/endoftheamericandream.com



sábado, 18 de julio de 2015

Han, el robot más "humano" del mundo

Jong Lee dirige Hanson Robotics, la empresa fundada por el doctor David Hanson, un investigador robótico renacentista, antiguo creativo de Disney, que persigue el sueño de construir androides con indicios de inteligencia y emoción humanos. Mientras que otros laboratorios investigan funciones mecánicas, la empresa de Hanson se centra en la cara de sus máquinas. Sus robots interpretan y expresan emociones intuitivamente, para integrarse de forma más natural en nuestras vidas. “Realizar máquinas geniales; con mayor inteligencia que la humana, con su creatividad, su sabiduría y hasta su compasión. Investigamos en robótica, inteligencia artificial, arte, ciencia cognitiva y diseño. Integramos todos esos esfuerzos en la búsqueda de la nueva relación de los humanos con los robots.”



miércoles, 17 de junio de 2015

ROBÓTICA. Esta increíble prótesis robótica doble se controla con el pensamiento.


Esta increíble prótesis robótica doble se controla con el pensamiento


Científicos y cirujanos de la Johns Hopkins University, en Baltimore (EE.UU), han creado por primera vez una prótesis robótica doble que ha devuelto ambos brazos a Les Baugh, un paciente que los perdió en un accidente hace 40 años. Lo más sorprendente es que, tras someterse a cirugía, Baugh ya es capaz de controlar sus brazos robóticos con el pensamiento.

Les Baugh se ha convertido en el primer paciente del mundo con ambos brazos amputados al nivel del hombro en utilizar esta prótesis doble. Es una increíble prueba de lo que la robótica y la medicina puedem hacer. La prótesis, que lleva en desarrollo más de 10 años en el laboratorio de física aplicada de la Johns Hopkins, es única por ser doble, sustituir el brazo al completo (incluido el hombro) y por ser manejada directamente con el pensamiento. Basta que Baugh piense en mover el brazo para que este le obedezca.

Esta increíble prótesis robótica doble se controla con el pensamiento.



Antes de utilizar la prótesis, Baugh se tuvo que someter a cirugía para reconectar las terminaciones nerviosas de su torso a los electrodos y conexiones de la carcasa del sistema. Esas terminaciones nerviosas envían información a la prótesis que, mediante algoritmos, la interpreta y transforma en movimientos casi al instante.

Tras instalarle el sistema completo, Baugh fue capaz de mover los brazos al momento e incluso empujar objetos. Después de 10 días de entrenamiento, era capaz de coger objetos y realizar tareas que no había podido hacer en 40 años. En el vídeo debajo puedes ver cómo ha sido todo ese proceso de principio a fin:

De momento las pruebas con Les Baugh han sido tremendamente exitosas. El siguiente paso será lograr que se acostumbre a utilizarlas en su día a día en casa y ver cómo se puede mejorar y avanzar el sistema. Según Michael McLoughlin, responsable del proyecto en la Johns Hopkins University, es solo el comienzo. "Es como los primeros días de la era de Internet. Hay un enorme potencial de cara al futuro. En los próximos 10 años creo que veremos un gran avance". Ojalá. [vía Johns Hopkins University]

Fotos: Johns Hopkins University

fuente/es.gizmodo.com

viernes, 29 de mayo de 2015

¿Sabes que son los Algoritmos Evolutivos?

Dos algoritmos permiten que un robot dañado siga funcionando

Un equipo multidisciplinar de ingenieros e informáticos franceses y estadounidenses ha creado un nuevo procedimiento, basado en un algoritmo evolutivo y otro de ensayo y error, que permite a los robots adaptarse a los daños imprevistos sufridos en el transcurso de una misión y continuar funcionando.

Esta técnica, cuyos resultados se han publicado en el último número la revista Nature, ya ha sido probada en un robot de seis patas con cinco tipos diferentes de lesiones, incluyendo roturas y la pérdida de alguna de estas extremidades.

El algoritmo evolutivo produce hasta 13.000 variaciones en la forma de desplazarse, con distinta actividad para cada extremidad

Según explica a Sinc Jean-Baptiste Mouret, investigador del Instituto de Sistemas Inteligentes y Robótica de la Universidad de Pierre y Marie Curie en París y uno de los autores de estudio, “los robots actúan de manera similar a como lo haría, por ejemplo, una persona con una rodilla dolorida: buscan rápidamente una manera de cojear para que les duela menos”.

El sistema se basa en la elaboración de un algoritmo evolutivo, llamado MAP-Elites, que puede producir hasta 13.000 variaciones en la forma de desplazarse. En cada una de ellas, cambia la actividad requerida de las extremidades.

Cuando sufre un daño imprevisto, el autómata recurre a esta base de datos para seleccionar los comportamientos que se adaptan mejor a la lesión sufrida. Pero como la evaluación procede de una simulación efectuada con el robot ‘sano’, es necesario comprobar cuáles de estas pautas son las más eficaces, señala este investigador.

La mejor opción

“El robot prueba con las distintas formas de desplazarse, descartando las que no funcionen. Por ejemplo, si caminando sobre las patas traseras no obtiene resultados, ensaya métodos que consistan en andar sobre las delanteras. La elección de la opción más idónea la realiza gracias a un segundo algoritmo de ensayo y error inteligente que hemos desarrollado”, indica Mouret.

De esta forma, los robots pueden completar su misión a pesar de las dificultades y sin necesitar asistencia humana, dice este investigador especializado en aprendizaje automático y computación evolutiva para el diseño de robots adaptables.

El nuevo sistema también ha sido probado en un brazo robótico con articulaciones rotas en 14 formas diferentes.

Los robots prueban varios métodos hasta encontrar el más idóneo para completar la misión

Útiles en catástrofes

“El método será especialmente útil para ser aplicado en entornos hostiles. Los robots podrán seguir trabajando, pese a resultar dañados en momentos en que cada segundo cuenta”, destaca el experto.

“Podrían ser enviados a buscar supervivientes tras un terremoto, a apagar incendios en los bosques o servir de apoyo para desactivar una central nuclear ante una crisis, como podría haber sido en el caso de Fukushima”, asegura.

Los algoritmos también se pueden aplicar en robots asistentes que ayuden a las personas mayores o enfermas. “Permitiría que fueran más efectivos y fiables, pues podrían seguir realizando sus tareas pese a sufrir algunas lesiones menores”, concluye.


fuente/laflecha.net

viernes, 10 de abril de 2015

Robots Araña.

El director ejecutivo de la compañía de hardware Intel, Brian Krzanich, sorprendió el lunes con la presentación de una pulsera capaz de dar instrucciones a pequeños robots-araña.

Krzanich alza la mano y cuatro arañas robot, émulas en miniatura de algún ejército clon en Star Wars, se despiertan y se levantan

jueves, 9 de abril de 2015

Cuidado con los "robots asesinos": Human Rights Watch pide prohibirlos antes de que sea tarde.

"Las armas autónomas al 100% todavía no existen. Pero la tecnología se está moviendo en esa dirección y ya hay precursores en uso o en desarrollo". Ésta es una de las conclusiones a las que ha llegado la ONG Human Rights Watch en un informe conjunto que han publicado junto a la Universidad de Harvard. En él piden a la ONU y a los propios países que prohíban las armas letales que funcionen de forma autónoma antes de que éstas comiencen a fabricarse.

Según dicho informe, las armas autónomas tendrían que tomar sus propias decisiones sobre el uso de fuerza letal sin contar con algunas características puramente humanas, como la compasión y el propio juicio de la persona. No sólo eso, sino que explican cómo sería difícil atribuir la responsabilidad de un acto a una de estas máquinas en el caso de que cometiera un crimen de guerra y también aseguran que volverían a generar una carrera armamentística entre países.

"Una vez desarrolladas, las armas completamente autónomas podrían llegar hasta países irresponsables o a otros grupos armados, dándoles máquinas que pueden ser programadas para matar indiscriminadamente a sus propios civiles o a las poblaciones enemigas", explican en el informe

¿Quién es el responsable?

En dicho informe se paran con detalle a analizar precisamente la responsabilidad criminal y la responsabilidad civil de este tipo de robots diseñados para matar. "Las armas no podrían ser consideradas responsables de sus actos porque ellas podrían no actuar con intenciones criminales, lo que quedaría fuera de la jurisdicción de los tribunales internacionales y no podría ser castigado".

La ausencia de castigos podría crear un "clima de impunidad y producir consecuencias negativas importantes en supervivientes y también en la sociedad como conjunto", denuncian en el documento. En declaraciones a The Guardian, uno de los responsables de HRW ponía varios ejemplos: "el no existir responsabilidad legal significa que no se podrán evitar crímenes futuros, no habrá retribuciones para las víctimas y no habrá condena social al responsable".

Por todo ello, desde HRW piden "prohibir el desarrollo, producción y uso de las armas completamente autónomas" a través de una institución internacional con implicaciones legales. Además, recomiendan que cada país desarrolle sus propias leyes para prohibir esto mismo. El documento llega al público unos días antes de que la ONU se reúna para debatir sobre las armas letales autónomas, en una conferencia con expertos que se celebrará del 13 al 17 de abril.

Informe completo | Human Rights Watch
fuente del texto/Xataka.com


¿Estamos lejos o cerca de lo que se presentó en la Gran Pantalla el año 1984 con el estreno de la película Terminator?. ¿ Qué opinas?