La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
+11
Vihesito
pabs11
Rufus Torcuatus Farflay
Chuchi
Miguel Bakunin
Il Divo
Yailus
Lord Rezo
AvilesII
Catlander
sevillafc
15 participantes
Página 2 de 4.
Página 2 de 4. • 1, 2, 3, 4
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
¿Efecto YK2000 de nuevo?
____________________________________________
Duque de (e)Talavera de la Reina.
Grande de (e)España.
Caballero del Habito de (e)Santiago.
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
A mi no me mireis, estoy programado en JS y no tengo clase



____________________________________________
Basket TOver por la gracia de Claver.
Las palabras fluyen con rapidez sobre la hoja en blanco… La tinta azul dibuja complicados trazos que simulan palabras… De música de fondo, las palabra de una profesora, o profesor… Historia, Literatura Universal, da igual la asignatura, solo importa escribir… Hamlet cobarde de la conciencia, Emma Bovary soñando con caballeros…Diario de un Escritor - pabman11
Moreno1994 escribió:
Maldito follalechugas. Las plantas estan para quemarlas y comerlas. Si no nos comemos ni nos fumamos las plantas que haremos? Comer y fumarnos animales?
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Lord Rezo escribió:Yailus escribió:Lord Rezo escribió:
Todo es muy complejo... y a la vez sencillo, si alguna maquina alguna vez llega a desarrollar conciencia, yo creo que reventaría.
Disiento, lo primero que haría sería intentar reventarnos.
Desde un punto vista lógico, racional y carente de emoción, no hay forma de que el ser humano tenga un lugar en un mundo de máquinas con conciencia.
Si desarrolla conciencia no nos reventaría home. ¿Tu reventarías la cabeza a tu vecino? No, tu conciencia lo impide xD.
Error mio, como bien ha apuntado catlander, hablaba de consciencia, no de conciencia (lo primero debería de llegar antes que lo segundo) en ese momento el ser humano pasa a ser "una amenaza demasiado grande para lo que ofrece"
Il Divo escribió:Una máquina hasta el momento es solamente programable, no tiene aprendizaje alguno, nunca va a poder ser libre porque para hacer que se comporte de una manera, habrá que programarla para que cuando reciba cierto estímulo, actúe de esa manera.
Que una máquina desarrolle conciencia lo veo como una quimera.
Creo que estabas en primero de carrera, no?
Ya llegarás a la asignatura de inteligencia articial, y te darás cuenta de que la barrera que has dicho fue superada hace mucho tiempo.
A día de hoy un programa puede aprender mejor y mas deprisa que cualquier ser humano, y tomar la decisión que considere mas correcta según parámetros que el misma designe, modificándolos respecto a lo aprendido previamente.
IA es una asignatura cojonuda debo decir, aunque nosotros nunca la tratamos desde el punto de vista filosófico.
____________________________________________
I came in like a wrecking ball!!!!
- Spoiler:
Surf Legend escribió:
Foro nuestro que estas en el google
cortijeado sea tu nombre,
Venga a nosotros tu lulz
hágase su l'Oreal, así en el erepublis como en la interweb
Danos hoy el ban nuestro de cada día,
y perdona nuestros tochoposts
asi como nosotros perdonamos a los que nos tl;drean
y no nos dejes caer en el retardation
mas libranos del fail de ser trolleados. Amen
Excelentísimo Señor Don Yailus, Duque de (e)Zaragoza y grande de (e)España.
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
@Yailus eso, tristemente, es generalizado. Se echa en falta en toda carrera de ingeniería, ciencia y ciencias sociales una asignatura de Filosofía/Consideraciones éticas/Deontología.
Yo no sé mucho de informática, pero (porque son cuestiones interesantes sobra las que uno de vez en cuando lee alguna noticia) creo que actualmente la capacidad de aprendizaje de una máquina es limitada; no existe un aprendizaje "total y en cualquier campo", porque (entiendo, por lo menos actualmente) es imposible programar la respuesta a todas las variables o que se genere una respuesta a variables que no pueden ser percibidas por una máquina a la que no se le ha dado la facultad de percibirlas.
Entiendo que lo que decía Il Divo podía ir en ese camino. (Y reitero que hablo desde un conocimiento muy somero de este tema).
Yo no sé mucho de informática, pero (porque son cuestiones interesantes sobra las que uno de vez en cuando lee alguna noticia) creo que actualmente la capacidad de aprendizaje de una máquina es limitada; no existe un aprendizaje "total y en cualquier campo", porque (entiendo, por lo menos actualmente) es imposible programar la respuesta a todas las variables o que se genere una respuesta a variables que no pueden ser percibidas por una máquina a la que no se le ha dado la facultad de percibirlas.
Entiendo que lo que decía Il Divo podía ir en ese camino. (Y reitero que hablo desde un conocimiento muy somero de este tema).
____________________________________________

Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Vihesito:
Si te gusta más el color rojo que el amarillo para una camiseta (supongamos) es por una serie de factores originados por varias causas y tu has asimilado ese color como positivo/exitoso y eso lo memorizarás entre tus aspectos favoritos como 'camiseta guay'. En segundo lugar el aspecto 'ropa para proteger de corrientes de aire' formará parte de ambas prendas. Y así con otros tantos aspectos que se le ocurran al cerebro.
Y si resulta que ese mismo día hace fresco de noche y tu camiseta roja favorita está humeda de la playa no te importará cojer la amarilla para protegerte del fresco. Para eso tanto vale la roja que la amarilla, pero la roja no está disponible.
Del mismo modo, si slgún día debes elegir la pared de una casa entre amarillo o verde, de inmediato todas las variables procesadas sobre el amarillo van a volver a estar presentes en la conciencia para tomar una decisión autónoma.
A todos esos procesos de elección se les denomina aprehendizaje (con h intercalada) y deriva de la aprehensión de datos u objetos o variables para disponer de ellos cuando hagan falta y en un orden determinado por muchos factores subjetivos.
Se puede programar eso perfectamente en una base de datos relacional en la que la elección de un dato concreto proceda de la interconexión de varios aspectos dispares: p.:j. aspecto 'camiseta guay' y el aspecto 'ropa para el fresco', en lo que cada color tendrá su prioridad más importante que el otro. Y todo ello puede ir encapsulado en un capítulo común llamado 'ropa'.
En un aspecto 'semáforo' si vas en un coche es obvio que el 'rojo' ya no será tan favorito como el de la 'camiseta guay' sino que hay que retomar nuevos aspectos como el código de circulación, encapsulado como 'coches'. El nombre del color se mantendría, su conexión con otros aspectos tambien, pero su funcion será totalmente diferente a la 'ropa' y la apreciación subjetiva tambien.
Esa manera de estructurar todos los datos obtenidos para la toma de decisiones se está ya estudiando en nuevos proyectos de ingeniería informática.
Como dije en otros posts no hay que pensar que la IA emule al ser humano porque no le hace ninguna falta. La supervivencia de un chip de silicio depende de factores dintintos a los de una helicoidal de ADN. No hay hormonas ni neurotransmisores ni globulos blancos y no hay la necesidad prioritaria de mantener todo el sistema saludable en todo momento para ejecutar órdenes racionales. Por tanto la naturaleza de la IA puede ser distinta y sus objetivos de supervivencia/mantenimiento tambien.
Por todo ello no hay que obsesionarse con la emulación de la especie humana, no le hace falta para dominarnos porque puede resistir mejor a casi todo (excepto el agua o la arena).
Si te gusta más el color rojo que el amarillo para una camiseta (supongamos) es por una serie de factores originados por varias causas y tu has asimilado ese color como positivo/exitoso y eso lo memorizarás entre tus aspectos favoritos como 'camiseta guay'. En segundo lugar el aspecto 'ropa para proteger de corrientes de aire' formará parte de ambas prendas. Y así con otros tantos aspectos que se le ocurran al cerebro.
Y si resulta que ese mismo día hace fresco de noche y tu camiseta roja favorita está humeda de la playa no te importará cojer la amarilla para protegerte del fresco. Para eso tanto vale la roja que la amarilla, pero la roja no está disponible.
Del mismo modo, si slgún día debes elegir la pared de una casa entre amarillo o verde, de inmediato todas las variables procesadas sobre el amarillo van a volver a estar presentes en la conciencia para tomar una decisión autónoma.
A todos esos procesos de elección se les denomina aprehendizaje (con h intercalada) y deriva de la aprehensión de datos u objetos o variables para disponer de ellos cuando hagan falta y en un orden determinado por muchos factores subjetivos.
Se puede programar eso perfectamente en una base de datos relacional en la que la elección de un dato concreto proceda de la interconexión de varios aspectos dispares: p.:j. aspecto 'camiseta guay' y el aspecto 'ropa para el fresco', en lo que cada color tendrá su prioridad más importante que el otro. Y todo ello puede ir encapsulado en un capítulo común llamado 'ropa'.
En un aspecto 'semáforo' si vas en un coche es obvio que el 'rojo' ya no será tan favorito como el de la 'camiseta guay' sino que hay que retomar nuevos aspectos como el código de circulación, encapsulado como 'coches'. El nombre del color se mantendría, su conexión con otros aspectos tambien, pero su funcion será totalmente diferente a la 'ropa' y la apreciación subjetiva tambien.
Esa manera de estructurar todos los datos obtenidos para la toma de decisiones se está ya estudiando en nuevos proyectos de ingeniería informática.
Como dije en otros posts no hay que pensar que la IA emule al ser humano porque no le hace ninguna falta. La supervivencia de un chip de silicio depende de factores dintintos a los de una helicoidal de ADN. No hay hormonas ni neurotransmisores ni globulos blancos y no hay la necesidad prioritaria de mantener todo el sistema saludable en todo momento para ejecutar órdenes racionales. Por tanto la naturaleza de la IA puede ser distinta y sus objetivos de supervivencia/mantenimiento tambien.
Por todo ello no hay que obsesionarse con la emulación de la especie humana, no le hace falta para dominarnos porque puede resistir mejor a casi todo (excepto el agua o la arena).
____________________________________________
War, Crisis and Pain. Welcome to the twenty century
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Se que no tiene que ver con el tema en cuestión y es algo mas generalizado... pero @Vihesito @Yailus cuando se enseña filosofía... hay que hacerlo bien, en España cuando enseñan filosofía en centros de estudios lo hacen como el puto culo cuando no te intentan meter sus ideas en la cabeza porque todo lo demás esta equivocado.
____________________________________________

Anaximenes escribió:¿Se puede empezar con una frase que pone "no me seáis peliculeros" y terminar con otra que incluya "los hijos del pueblo eEspañol pueden descansar tranquilos por el momento, bajo el manto protector de la Dictadura"?![]()
- Spoiler:
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Vihesito escribió:@Yailus eso, tristemente, es generalizado. Se echa en falta en toda carrera de ingeniería, ciencia y ciencias sociales una asignatura de Filosofía/Consideraciones éticas/Deontología.
Yo no sé mucho de informática, pero (porque son cuestiones interesantes sobra las que uno de vez en cuando lee alguna noticia) creo que actualmente la capacidad de aprendizaje de una máquina es limitada; no existe un aprendizaje "total y en cualquier campo", porque (entiendo, por lo menos actualmente) es imposible programar la respuesta a todas las variables o que se genere una respuesta a variables que no pueden ser percibidas por una máquina a la que no se le ha dado la facultad de percibirlas.
Entiendo que lo que decía Il Divo podía ir en ese camino. (Y reitero que hablo desde un conocimiento muy somero de este tema).
Es un tema muy ambiguo y con una confusión tremenda.
Por ejemplo, un robot que aprende a superar obstáculos, la primera vez va y se pega la ostia, la segunda salta antes de llegar a ver si así pasa el obstáculo, si no, prueba otra cosa.
A lo que quiero llegar es, ese robot supera al final el obstáculo mediante ensayo y error porque nosotros le hemos dado unas pautas, no porque esté tomando decisiones. No me hago a la idea de que manera puede un robot llegar a tener sentimientos (una parte de la conciencia), el robot siempre actuará en base a los estímulos externos que le harán hacer una cosa u otra según haya sido programado.
La máquina nunca va a saber lo que está bien o lo que está mal, no lo va a poder percibir, no puede tener conciencia. Ser consciente es algo relativo, un robot puede ser consciente de como es su entorno ya que posee herramientas que le hacen poder percibir la realidad, pero como he dicho, un robot no es libre, no existe libre albedrío en los robots, si actúan de forma aleatoria es porque así han sido programados.
Eso sí, queda un bonito debate filosófico sobre si nosotros estamos también programados o no xD No podemos determinar a ciencia cierta si lo nuestro es libre albedrío o es azar programado.
Pero bueno, yo me quedo con la afirmación de "las máquinas nunca podrán superarnos en inteligencia, pues es el ser humano quien las crea", por lo tanto nunca podrán dominarnos.
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
¿Y dándole al votoncito de apagado no se resolvería el problema?
____________________________________________
Duque de (e)Talavera de la Reina.
Grande de (e)España.
Caballero del Habito de (e)Santiago.
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Si se apagara el botoncito, el motor de búsqueda de Gle ya no podría encontrarnos juntoa aquí en el momificadoRufus Torcuatus Farflay escribió:¿Y dándole al votoncito de apagado no se resolvería el problema?

Pero estoy de acuerdo en origen. Espero que me defiendas cuando Surf Legend se meta conmigo por ir contra las máquinas

____________________________________________
War, Crisis and Pain. Welcome to the twenty century
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Vendrá Terminator a salvarnos, tranquilos.


Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Il Divo escribió:
Pero bueno, yo me quedo con la afirmación de "las máquinas nunca podrán superarnos en inteligencia, pues es el ser humano quien las crea", por lo tanto nunca podrán dominarnos.









____________________________________________

Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Il Divo escribió:
Es un tema muy ambiguo y con una confusión tremenda.
Por ejemplo, un robot que aprende a superar obstáculos, la primera vez va y se pega la ostia, la segunda salta antes de llegar a ver si así pasa el obstáculo, si no, prueba otra cosa.
A lo que quiero llegar es, ese robot supera al final el obstáculo mediante ensayo y error porque nosotros le hemos dado unas pautas, no porque esté tomando decisiones. No me hago a la idea de que manera puede un robot llegar a tener sentimientos (una parte de la conciencia), el robot siempre actuará en base a los estímulos externos que le harán hacer una cosa u otra según haya sido programado.
Lee esto y dime la diferencia con un ser humano. Un sentimiento es una reacción a unos estímulos proporcionados. Si un adulto se cae haciendo el tonto te ries, si se cae un niño pequeño vas a levantarlo. En base a unos parámetros, en este caso la edad, que unido al hecho de ser un ser humano te lleva a determinar el grado de gravedad del suceso, y funcion del grado de gravedad unido a tu escala de valores te hace reaccionar de una forma u otra. No haces nada que no pueda hacer una máquina.
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Pues yo también me rio si veo caerse a un niño...

____________________________________________

Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
Vihesito escribió:Pues yo también me rio si veo caerse a un niño...![]()
pues tienes un problema con tu escala de valores o con tu determinación de la gravedad. O no es una caida grave. O eres un rojo de mierda que come niños y por tanto ver caer comida no te produce ninguna reacción en especial
Re: La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
¿Y nosotros no somos máquinas que funcionamos mediante reacciones químicas?
Página 2 de 4. • 1, 2, 3, 4

» Google lanza Allo, un WhatsApp con inteligencia artificial
» El futuro de la Inteligencia Artificial según Kurzweil, gurú de la IA y director de ingeniería Google
» La NSA usó aplicaciones como Angry Birds o Google Maps para obtener datos
» Colorado ya piensa en verde
» Antes de criticar a los mercados piensa...
» El futuro de la Inteligencia Artificial según Kurzweil, gurú de la IA y director de ingeniería Google
» La NSA usó aplicaciones como Angry Birds o Google Maps para obtener datos
» Colorado ya piensa en verde
» Antes de criticar a los mercados piensa...
Página 2 de 4.
Permisos de este foro:
No puedes responder a temas en este foro.