La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
+11
Vihesito
pabs11
Rufus Torcuatus Farflay
Chuchi
Miguel Bakunin
Il Divo
Yailus
Lord Rezo
AvilesII
Catlander
sevillafc
15 participantes
Página 1 de 4.
Página 1 de 4. • 1, 2, 3, 4
La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Un anti IA, básicamente.

Mucho se ha comentado acerca de la inteligencia artificial y sus posibilidades, personalidades involucradas en el sector se ha pronunciado a favor y en contra como el caso de Bill Gates, Mark Zuckerberg, Stephen Hawking, Elon Musk, entre otros, ya que al día de hoy son muchos los desarrollos que buscan implementar sistemas de inteligencia artificial y machine learning.
Uno de los proyectos más ambiciosos es el caso de DeepMind, un sistema avanzado de IA adquirido por Google en 2014 por 580 millones de dólares donde actualmente intervienen científicos de la Universidad de Oxford, quienes ahora no sólo trabajan en su desarrollo, sino que también están creando un mecanismo que nos asegure que podremos desactivarla en casos de algún peligro potencial.
El día de hoy, científicos del Instituto para el Futuro de la Humanidad de la Universidad de Oxford e investigadores de Google están publicando un documento que lleva por nombre 'Safely Interruptible Agents', donde describen una serie normas y funciones con el objetivo de evitar que DeepMind pueda tomar el control de su sistema, e incluso sea capaz de desactivar los protocolos para que los seres humanos retomen el control.
Esto tal vez puede sonar alarmante, pero la realidad es que es una especie de póliza de seguridad que nos garantizará el óptimo funcionamiento de estos sistemas, lo cual está dirigido principalmente a casos y aplicaciones en cadenas de producción donde se pueden presentar fallos sin la supervisión de un ser humano, entonces con esta especie de "gran botón rojo de emergencia" podríamos desactivar las acciones y volver a reprogramar.
Un punto importante, es que estas medidas también hablan de un mecanismo que garantiza que la IA no aprenderá a desactivar o interrumpir estos protocolos, es decir, que no pueda bloquear el control por medio de humanos, algo que sería potencialmente peligroso ya que prácticamente sería independiente y sin posibilidad de que podamos desactivarla o volver a tomar el control.
Hasta este momento han logrado desarrollar 'Q-learning' y 'Sarsa', dos algoritmos de seguridad que son imposibles de modificar por la propia IA, ya que según los investigadores, muchos desarrollos no están creando este tipo de módulos de seguridad, algo que debería ser prioritario en el desarrollo de inteligencia artificial.
DeepMind tiene un objetivo muy ambicioso que es "tratar de resolver la inteligencia", por ello la importancia de que siempre trabaje bajo nuestra supervisión, ya que se estima que en al menos 100 años, los sistemas de IA podrían ser más astutos que los seres humanos y ser una amenaza para nuestra existencia.
http://m.xataka.com/robotica-e-ia/la-inteligencia-artificial-podria-ser-un-peligro-y-google-ya-piensa-en-como-podra-desactivarla
La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla

Mucho se ha comentado acerca de la inteligencia artificial y sus posibilidades, personalidades involucradas en el sector se ha pronunciado a favor y en contra como el caso de Bill Gates, Mark Zuckerberg, Stephen Hawking, Elon Musk, entre otros, ya que al día de hoy son muchos los desarrollos que buscan implementar sistemas de inteligencia artificial y machine learning.
Uno de los proyectos más ambiciosos es el caso de DeepMind, un sistema avanzado de IA adquirido por Google en 2014 por 580 millones de dólares donde actualmente intervienen científicos de la Universidad de Oxford, quienes ahora no sólo trabajan en su desarrollo, sino que también están creando un mecanismo que nos asegure que podremos desactivarla en casos de algún peligro potencial.
Asegurando el futuro de la raza humana
El día de hoy, científicos del Instituto para el Futuro de la Humanidad de la Universidad de Oxford e investigadores de Google están publicando un documento que lleva por nombre 'Safely Interruptible Agents', donde describen una serie normas y funciones con el objetivo de evitar que DeepMind pueda tomar el control de su sistema, e incluso sea capaz de desactivar los protocolos para que los seres humanos retomen el control.
Esto tal vez puede sonar alarmante, pero la realidad es que es una especie de póliza de seguridad que nos garantizará el óptimo funcionamiento de estos sistemas, lo cual está dirigido principalmente a casos y aplicaciones en cadenas de producción donde se pueden presentar fallos sin la supervisión de un ser humano, entonces con esta especie de "gran botón rojo de emergencia" podríamos desactivar las acciones y volver a reprogramar.

Un punto importante, es que estas medidas también hablan de un mecanismo que garantiza que la IA no aprenderá a desactivar o interrumpir estos protocolos, es decir, que no pueda bloquear el control por medio de humanos, algo que sería potencialmente peligroso ya que prácticamente sería independiente y sin posibilidad de que podamos desactivarla o volver a tomar el control.
Hasta este momento han logrado desarrollar 'Q-learning' y 'Sarsa', dos algoritmos de seguridad que son imposibles de modificar por la propia IA, ya que según los investigadores, muchos desarrollos no están creando este tipo de módulos de seguridad, algo que debería ser prioritario en el desarrollo de inteligencia artificial.
DeepMind tiene un objetivo muy ambicioso que es "tratar de resolver la inteligencia", por ello la importancia de que siempre trabaje bajo nuestra supervisión, ya que se estima que en al menos 100 años, los sistemas de IA podrían ser más astutos que los seres humanos y ser una amenaza para nuestra existencia.
http://m.xataka.com/robotica-e-ia/la-inteligencia-artificial-podria-ser-un-peligro-y-google-ya-piensa-en-como-podra-desactivarla
____________________________________________
Congresista x4 / Ministro Comunicación x30 / Vice-Ministro Comunicación x6 / ex-Presidente ASD / Presidente del Partido Viejuno x2 / Participante fusión IDE+UPeR / Ex-Embajador en Venezuela x3 / Tutor IAN x7 / Ex-Miliciano COE & LH / Ex-teniente y miembro FFAA...
Excelentísimo Señor Don Sevillafc, Duque de (e)Sevilla y Grande de (e)España
Vizcondado de (e)Iznájar, con antigüedad de 1466, otorgado a sevillafc el 19-02-2017.
Vizcondado de (e)Iznájar, con antigüedad de 1466, otorgado a sevillafc el 19-02-2017.
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Hace unos años unos algoritmos bursátiles obligaron a resetear el mercado de cotizaciones de N.York. Esperad cuando hayan smart cities y el 'internet de las cosas' hackeadas por yihadistas y chinos. Ya verás que risa.
____________________________________________
War, Crisis and Pain. Welcome to the twenty century
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
El menor de nuestros problemas es que las máquinas se vuelvan más "astutas" que nosotros y nos destruyan como especie. Estoy convencido de que eso nunca pasará. Y si pasa es porque somos más idiotas de lo que creo (y ya tengo a la nuestra especie por muy idiota como para que lo sea aún más).
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
El eterno debate de la ciencia ficción...
Queremos que las maquinas nos ayuden a vivir mejor, ¿Pero acaso nosotros hacemos lo posible por vivir mejor? ¿Y si para vivir mejor otros tuviesen que vivir peor? ¿Y si cuidándonos las maquinas pueden hacer que vivamos mejor al privarnos de la libertad?
Todo es muy complejo... y a la vez sencillo, si alguna maquina alguna vez llega a desarrollar conciencia, yo creo que reventaría.
Queremos que las maquinas nos ayuden a vivir mejor, ¿Pero acaso nosotros hacemos lo posible por vivir mejor? ¿Y si para vivir mejor otros tuviesen que vivir peor? ¿Y si cuidándonos las maquinas pueden hacer que vivamos mejor al privarnos de la libertad?
Todo es muy complejo... y a la vez sencillo, si alguna maquina alguna vez llega a desarrollar conciencia, yo creo que reventaría.
____________________________________________

Anaximenes escribió:¿Se puede empezar con una frase que pone "no me seáis peliculeros" y terminar con otra que incluya "los hijos del pueblo eEspañol pueden descansar tranquilos por el momento, bajo el manto protector de la Dictadura"?![]()
- Spoiler:
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Lord Rezo escribió:
Todo es muy complejo... y a la vez sencillo, si alguna maquina alguna vez llega a desarrollar conciencia, yo creo que reventaría.
Disiento, lo primero que haría sería intentar reventarnos.
Desde un punto vista lógico, racional y carente de emoción, no hay forma de que el ser humano tenga un lugar en un mundo de máquinas con conciencia.
____________________________________________
I came in like a wrecking ball!!!!
- Spoiler:
Surf Legend escribió:
Foro nuestro que estas en el google
cortijeado sea tu nombre,
Venga a nosotros tu lulz
hágase su l'Oreal, así en el erepublis como en la interweb
Danos hoy el ban nuestro de cada día,
y perdona nuestros tochoposts
asi como nosotros perdonamos a los que nos tl;drean
y no nos dejes caer en el retardation
mas libranos del fail de ser trolleados. Amen
Excelentísimo Señor Don Yailus, Duque de (e)Zaragoza y grande de (e)España.
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Yailus escribió:Lord Rezo escribió:
Todo es muy complejo... y a la vez sencillo, si alguna maquina alguna vez llega a desarrollar conciencia, yo creo que reventaría.
Disiento, lo primero que haría sería intentar reventarnos.
Desde un punto vista lógico, racional y carente de emoción, no hay forma de que el ser humano tenga un lugar en un mundo de máquinas con conciencia.
Si desarrolla conciencia no nos reventaría home. ¿Tu reventarías la cabeza a tu vecino? No, tu conciencia lo impide xD.
____________________________________________

Anaximenes escribió:¿Se puede empezar con una frase que pone "no me seáis peliculeros" y terminar con otra que incluya "los hijos del pueblo eEspañol pueden descansar tranquilos por el momento, bajo el manto protector de la Dictadura"?![]()
- Spoiler:
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Una máquina hasta el momento es solamente programable, no tiene aprendizaje alguno, nunca va a poder ser libre porque para hacer que se comporte de una manera, habrá que programarla para que cuando reciba cierto estímulo, actúe de esa manera.
Que una máquina desarrolle conciencia lo veo como una quimera.
Que una máquina desarrolle conciencia lo veo como una quimera.
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Lord Rezo escribió:Yailus escribió:Lord Rezo escribió:
Todo es muy complejo... y a la vez sencillo, si alguna maquina alguna vez llega a desarrollar conciencia, yo creo que reventaría.
Disiento, lo primero que haría sería intentar reventarnos.
Desde un punto vista lógico, racional y carente de emoción, no hay forma de que el ser humano tenga un lugar en un mundo de máquinas con conciencia.
Si desarrolla conciencia no nos reventaría home. ¿Tu reventarías la cabeza a tu vecino? No, tu conciencia lo impide xD.
Tu o Yailus no le reventaríais la cabeza al vecino (quiero pensar), pero la historia nos da claros ejemplos de humanos con "conciencia" que han aniquilado congéneres así al tun tun. No veo por qué no iba a hacerlo una máquina con una conciencia y lógica creada por el ser humano a su imagen y semejanza.
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Miguel Bakunin escribió:Lord Rezo escribió:Yailus escribió:Lord Rezo escribió:
Todo es muy complejo... y a la vez sencillo, si alguna maquina alguna vez llega a desarrollar conciencia, yo creo que reventaría.
Disiento, lo primero que haría sería intentar reventarnos.
Desde un punto vista lógico, racional y carente de emoción, no hay forma de que el ser humano tenga un lugar en un mundo de máquinas con conciencia.
Si desarrolla conciencia no nos reventaría home. ¿Tu reventarías la cabeza a tu vecino? No, tu conciencia lo impide xD.
Tu o Yailus no le reventaríais la cabeza al vecino (quiero pensar), pero la historia nos da claros ejemplos de humanos con "conciencia" que han aniquilado congéneres así al tun tun. No veo por qué no iba a hacerlo una máquina con una conciencia y lógica creada por el ser humano a su imagen y semejanza.
A quien tiene conciencia (de verdad, existencial) le duele lo que le pase a los demas, me refiero a que si de verdad se crea una inteligencia artificial, que sea capaz de pensar en nuestra seguridad (por peticion nuestra por ejemplo) y tiene conciencia, tendria mas facil el autodestruirse que cumplirlo. Porque poner un dedo encima a una persona se considera ya de por si violencia (y ya ultimamente hablar o criticar tambien). Asi que un pobre robot que tenga claros esos conceptos de la sociedad hasta el punto de entender que nos autodestruimos seria capaz de entender que protegernos de esa destruccion seria privarnos de la libertad y el "estado de bienestar" que necesitamos para no autodestruirnos.
____________________________________________

Anaximenes escribió:¿Se puede empezar con una frase que pone "no me seáis peliculeros" y terminar con otra que incluya "los hijos del pueblo eEspañol pueden descansar tranquilos por el momento, bajo el manto protector de la Dictadura"?![]()
- Spoiler:
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Si una IA pasase a ser el primer ente verdaderamente inteligente en la tierra, lo primero que haría sería privarnos de libertad. Desde hace unos años tenemos la capacidad de poder vivir todos los habitantes de la tierra. No sobra nadie. Privandonos de nuestras libertades podrái hacer una redistribución justa de la riqueza y podríamos vivir todos bien, algunos peor que ahora y otros mejor.
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Cuidado con confundir consciencia de un 'yo' con tener una conciencia espiritual del entorno.
Si lo que nos preguntamos es si una máquina se puede auto-reconocer, tomar decisiones autónomas y tener objetivos propios la respuesta es que sí. En informática las funciones recursivas y dinámicas, junto a una lectura de sensores permanente y un código de prioridades re-ajustables, elegir al azar entre dos o más objetos ciertos, etc. pueden emular una autoconciencia capaz de tomar decisiones inteligentes.
En cuanto a lo de tener conciencia, un código moral basada en leyes y principios rollo Asimov, me parece muy romántico pero nada real.
Antes hemos de comprender que la psicobiología humana está muy influenciada por los '3 cerebros' (teoría MacLean), en el que desarrollamos un estupendo chorreo hormonal (producto de nuestra programación genética para dar respuesta a un sinfín de estímulos externos que priorizan la supervivencia como especie). Por tanto la especie humana ha comprendido que la suma de muchos es beneficiosa para el conjunto,y proporcionamente para cada individuo.
Así, debido a que la naturaleza del silicio-germanio de los chips es radicalmente distinta a la del ADN, tambien las necesidades de mantener la integridad funcional del sistema son distintas y por tanto la organización de los individuos en 'colmenas' o sociedades jerarquizadas tambien sería diferente.
Los robots que precisan de algo para funcionar simplemente cesan sus funciones hasta que les sean repuestos los elementos que se agotan. No les importa quien se los reponga y por tanto no ejercerán ninguna relación de dependencia afectiva, cultural, social o espiritual del tipo moral amo-esclavo hegueliana.
En los humanos la prioridad de mantener vivas y saludables todas las partes del sistema hacen más determinante la necesidad de atender hasta la más mínima señal de dolor o malformación que se produzca, hasta el punto que la dependencia de esta provoca una relación de sometimiento a otros.
Precisamente, lo que hace dolorosa/denigrante la esclavitud humana es la falta de respeto, de derechos, de libertades, etc. que se produce entre amo y esclavo, no tanto por la obligación de trabajar para alguien por un sueldo miserable. El amo arriesga con su vida someter al otro para que le sirva y administrando un cierto daño al esclavo (quitándole tiempo para su familia, reduciéndole el sueldo, extorsionandole con dejarle sin vacaciones o sin despido) sabe que le someterá a su control.
Quizás lo que más tememos descubrir es que los robots son más libres que nosotros porque pueden hacer su particular huelga individual, dejando de estar activos si no se les repone los elementos que piden para continuar. En este sentido la moral amo-esclavo se invierte, pues acabaremos sirviéndoles para que nos mantengan.
Si lo que nos preguntamos es si una máquina se puede auto-reconocer, tomar decisiones autónomas y tener objetivos propios la respuesta es que sí. En informática las funciones recursivas y dinámicas, junto a una lectura de sensores permanente y un código de prioridades re-ajustables, elegir al azar entre dos o más objetos ciertos, etc. pueden emular una autoconciencia capaz de tomar decisiones inteligentes.
En cuanto a lo de tener conciencia, un código moral basada en leyes y principios rollo Asimov, me parece muy romántico pero nada real.
Antes hemos de comprender que la psicobiología humana está muy influenciada por los '3 cerebros' (teoría MacLean), en el que desarrollamos un estupendo chorreo hormonal (producto de nuestra programación genética para dar respuesta a un sinfín de estímulos externos que priorizan la supervivencia como especie). Por tanto la especie humana ha comprendido que la suma de muchos es beneficiosa para el conjunto,y proporcionamente para cada individuo.
Así, debido a que la naturaleza del silicio-germanio de los chips es radicalmente distinta a la del ADN, tambien las necesidades de mantener la integridad funcional del sistema son distintas y por tanto la organización de los individuos en 'colmenas' o sociedades jerarquizadas tambien sería diferente.
Los robots que precisan de algo para funcionar simplemente cesan sus funciones hasta que les sean repuestos los elementos que se agotan. No les importa quien se los reponga y por tanto no ejercerán ninguna relación de dependencia afectiva, cultural, social o espiritual del tipo moral amo-esclavo hegueliana.
En los humanos la prioridad de mantener vivas y saludables todas las partes del sistema hacen más determinante la necesidad de atender hasta la más mínima señal de dolor o malformación que se produzca, hasta el punto que la dependencia de esta provoca una relación de sometimiento a otros.
Precisamente, lo que hace dolorosa/denigrante la esclavitud humana es la falta de respeto, de derechos, de libertades, etc. que se produce entre amo y esclavo, no tanto por la obligación de trabajar para alguien por un sueldo miserable. El amo arriesga con su vida someter al otro para que le sirva y administrando un cierto daño al esclavo (quitándole tiempo para su familia, reduciéndole el sueldo, extorsionandole con dejarle sin vacaciones o sin despido) sabe que le someterá a su control.
Quizás lo que más tememos descubrir es que los robots son más libres que nosotros porque pueden hacer su particular huelga individual, dejando de estar activos si no se les repone los elementos que piden para continuar. En este sentido la moral amo-esclavo se invierte, pues acabaremos sirviéndoles para que nos mantengan.
____________________________________________
War, Crisis and Pain. Welcome to the twenty century
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Hasta nosostros mismos somos conscientes de que nuestro mayor enemigo somos nosotros mismos, no tenemos ninguna especie que nos pueda toser y estamos tan aburridos que nos amenazamos a nosotros mismos.
Si gente como Mussolini, Hitler, Franco llegaron al poder, y casi consiguen hacerse con el control de Europa, y quien sabe si de todo el mundo; ¿quién te asegura entonces que no conseguirá alguien al poder igual que ellos? Tenemos ya suficiente potencial como para destruir nuestro propio mundo a base de bombas nucleares, es cuestión de tiempo que un descerebrado tenga acceso a ese potencial y desatarlo para joder todo.
Es curioso, porque una de las teorías por las que se cree que no hemos visto todavía ninguna civilización extraterrestre es porque estas para salir al espacio necestarían un desarrollo tecnológico que les permitiría exterminarse a ellos mismos, y puede que lo que suceda con esas especies desarrolladas es que acaben efectivamente autoextinguiéndose, o eso, o que sus planetas no tengan suficientes recursos en el planeta como para salir de sus sistemas estelares (al igual que puede que nos pase a nosotros, que no hemos llegado a Marte aún en misiones tripuladas, y lo más lejos que ha llegado una sonda es a los límites del sistema solar, la Voyage, que por cierto, se quedará sin batería en menos de 10 años), de hecho nosotros ya hemos medio jodido nuestro planeta y como he indicado en el comentario entre paréntesis, no hemos ni salido de casa, no hemos visto aún el vecindario, por lo que aspirar a ver la ciudad entera... como que no aún.
A lo que iba, una máquina con dos dedos de frente y con "conciencia" se marcaría como objetivos primero reducir la población, porque la población actual es insostenible para los recursos de los que disponemos, y lo segundo que haría sería privarnos de nuestra libertad para no extinguirnos, al igual que nosotros haríamos con una especie en peligro de extinción, ponerla en cautividad.
@Catlander, entonces si se programara para tomar decisiones al azar, parecerían acciones que ha tomado la máquina, pero en realidad sería solo producto del azar, no sería una decisión en sí, la máquina no podría salirse de esas opciones azarosas que le han programado, tú o yo en cambio sí (o eso creemos).
Si gente como Mussolini, Hitler, Franco llegaron al poder, y casi consiguen hacerse con el control de Europa, y quien sabe si de todo el mundo; ¿quién te asegura entonces que no conseguirá alguien al poder igual que ellos? Tenemos ya suficiente potencial como para destruir nuestro propio mundo a base de bombas nucleares, es cuestión de tiempo que un descerebrado tenga acceso a ese potencial y desatarlo para joder todo.
Es curioso, porque una de las teorías por las que se cree que no hemos visto todavía ninguna civilización extraterrestre es porque estas para salir al espacio necestarían un desarrollo tecnológico que les permitiría exterminarse a ellos mismos, y puede que lo que suceda con esas especies desarrolladas es que acaben efectivamente autoextinguiéndose, o eso, o que sus planetas no tengan suficientes recursos en el planeta como para salir de sus sistemas estelares (al igual que puede que nos pase a nosotros, que no hemos llegado a Marte aún en misiones tripuladas, y lo más lejos que ha llegado una sonda es a los límites del sistema solar, la Voyage, que por cierto, se quedará sin batería en menos de 10 años), de hecho nosotros ya hemos medio jodido nuestro planeta y como he indicado en el comentario entre paréntesis, no hemos ni salido de casa, no hemos visto aún el vecindario, por lo que aspirar a ver la ciudad entera... como que no aún.
A lo que iba, una máquina con dos dedos de frente y con "conciencia" se marcaría como objetivos primero reducir la población, porque la población actual es insostenible para los recursos de los que disponemos, y lo segundo que haría sería privarnos de nuestra libertad para no extinguirnos, al igual que nosotros haríamos con una especie en peligro de extinción, ponerla en cautividad.
@Catlander, entonces si se programara para tomar decisiones al azar, parecerían acciones que ha tomado la máquina, pero en realidad sería solo producto del azar, no sería una decisión en sí, la máquina no podría salirse de esas opciones azarosas que le han programado, tú o yo en cambio sí (o eso creemos).
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Avisadme cuando vayamos morir todos.

____________________________________________
Duque de (e)Talavera de la Reina.
Grande de (e)España.
Caballero del Habito de (e)Santiago.
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Il Divo:
No se trata de un azar puro, entre sacar 2 o 6 (como en una tirada de dados), sino en tomar 1 decisión entre 2 o varias opciones adecuadas a unos determinados objetivos. P.ej. si a las 10 de la mañana nosotros podemos optar por trabajar, interrumpir el trabajo y desayunar o ir al baño, cualquier opción elegida estará bien si al final se cumple el objetivo asignado y por eso podemos jugar con varias opciones autónomas. Solo reprogramaremos nuestro tiempo para cumplir los objetivos que nos marcan.
Otro ejemplo. En un equipo de futbol no solo se elegirá el once titular y el tiempo que debe jugar cada jugador y en cada posición por el objetivo final o el rendimiento, tambien se puede elegir por su conducta disciplinaria, por intereses concretos o pactados con la junta del club, por motivos extradeportivos. Cada una de las áreas deportivas, sanitarias, marqueting, etc. inciden en la toma de decisiones y a veces por motivos diferentes da igual por a uno u otro en el once titular, el azar depende de decisiones arbitrarias del entrenador al evaluar todos los adpectos que le interesan.
En informática eso tambien se puede programar perfectamente en un nuevo paradigma llamado POA (paradigma orientado a aspectos) en los que, en igualdad de opciones eficientes cualquier aspecto que se elija al azar cumplirá perfectamente con los objetivos esperados.
P.ej. un robot que prefiera voltear una pieza del derecho al revés o viceversa, o prefiere reducir el rendimiento para enfriar el sistema o solicitar mas líquido refrigerante o una nueva batería y volver a aumentar dicho rendimiento cuando reponga sus necesidades.
Todo ello hace que sea posible tener un 'caracter' cibernético, una autoconciencia distinta a la humana pero perfectamente sostenible con su supervivencia.
No se trata de un azar puro, entre sacar 2 o 6 (como en una tirada de dados), sino en tomar 1 decisión entre 2 o varias opciones adecuadas a unos determinados objetivos. P.ej. si a las 10 de la mañana nosotros podemos optar por trabajar, interrumpir el trabajo y desayunar o ir al baño, cualquier opción elegida estará bien si al final se cumple el objetivo asignado y por eso podemos jugar con varias opciones autónomas. Solo reprogramaremos nuestro tiempo para cumplir los objetivos que nos marcan.
Otro ejemplo. En un equipo de futbol no solo se elegirá el once titular y el tiempo que debe jugar cada jugador y en cada posición por el objetivo final o el rendimiento, tambien se puede elegir por su conducta disciplinaria, por intereses concretos o pactados con la junta del club, por motivos extradeportivos. Cada una de las áreas deportivas, sanitarias, marqueting, etc. inciden en la toma de decisiones y a veces por motivos diferentes da igual por a uno u otro en el once titular, el azar depende de decisiones arbitrarias del entrenador al evaluar todos los adpectos que le interesan.
En informática eso tambien se puede programar perfectamente en un nuevo paradigma llamado POA (paradigma orientado a aspectos) en los que, en igualdad de opciones eficientes cualquier aspecto que se elija al azar cumplirá perfectamente con los objetivos esperados.
P.ej. un robot que prefiera voltear una pieza del derecho al revés o viceversa, o prefiere reducir el rendimiento para enfriar el sistema o solicitar mas líquido refrigerante o una nueva batería y volver a aumentar dicho rendimiento cuando reponga sus necesidades.
Todo ello hace que sea posible tener un 'caracter' cibernético, una autoconciencia distinta a la humana pero perfectamente sostenible con su supervivencia.
____________________________________________
War, Crisis and Pain. Welcome to the twenty century
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Il Divo escribió:
@Catlander, entonces si se programara para tomar decisiones al azar, parecerían acciones que ha tomado la máquina, pero en realidad sería solo producto del azar, no sería una decisión en sí, la máquina no podría salirse de esas opciones azarosas que le han programado, tú o yo en cambio sí (o eso creemos).
Las maquinas tienen posibilidad de crear acciones en base a unos parámetros. Basicamente igual que un ser humano. Un niño pequeño se cae mas que un adulto porque las acciones que realiza para andar se basan en unos parámetros mas aleatorios que los de un adulto, a medida que realizamos las acciones los parámetros requeridos van fluctuando cada vez menos hasta que consideramos que hemos aprendido a realizar la acción.
Un ejemplo bastante chulo
Página 1 de 4. • 1, 2, 3, 4

» Google lanza Allo, un WhatsApp con inteligencia artificial
» El futuro de la Inteligencia Artificial según Kurzweil, gurú de la IA y director de ingeniería Google
» La NSA usó aplicaciones como Angry Birds o Google Maps para obtener datos
» Colorado ya piensa en verde
» Antes de criticar a los mercados piensa...
» El futuro de la Inteligencia Artificial según Kurzweil, gurú de la IA y director de ingeniería Google
» La NSA usó aplicaciones como Angry Birds o Google Maps para obtener datos
» Colorado ya piensa en verde
» Antes de criticar a los mercados piensa...
Página 1 de 4.
Permisos de este foro:
No puedes responder a temas en este foro.