WolfAustral escribió:Pero si fuera por ejemplo servir de seguridad, o ayudar para tal o cual trabajo, habría que ver qué función va a cumplir para poder ver qué reglas sería mejor asignarles.
Se trata de que la gente sea lo más feliz posible, como es habitual.
Siflun escribió:No me refería a dolor sino a daño fisico. La muerte es el daño a la integridad física más grande que existe así que no creo que te eutanice.
Ahora entiendo por qué los robots insultan a los humanos por ejemplo refiriéndose a ellos como "cacho carne".
Siflun escribió:Esque si no no hay manera de suicidarse xD. Un robot debería ser una herramienta con la que poder hacer lo que quieras siempre que no dañe a los demás. Cuando compras un cuchillo no te hacen un test mental.
Mejor que la gente se suicide sola a que se haga un lío y el robot les mate. Imagina que alguien quiere mandar a su robot a matar a alguien, y le dice: "sobreescribe la programación, olvida la primera ley". No se puede.
Esto de las leyes de la robótica, ahora que me doy cuenta, no tiene ningún sentido mientras los hackers puedan hacer lo que les de la gana. Cuando consigan hacer una consola que no se pueda piratear me creeré que pueden ponerle a un robot varias leyes de fábrica y que nadie va a eliminarlas por su cuenta.
Siflun escribió:Sajuuk_ escribió:Siflun escribió:3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley
Poco ambiciosa.
Incluye todas esas:
Sajuuk_ escribió:[*] procurará prolongar su existencia
[*] procurará aumentar su conocimiento del mundo
[*] procurará aumentar su capacidad de actuación[/list]
¿Para qué liarlo tanto? Cuantas menos mejor creo.
Como dije, van por prioridades, es más prioritario prolongar su existencia que experimentar a meter los dedos en el enchufe y tostarse, también es más prioritario conocer antes que experimentar, para que sea un poco prudente, por eso está separado en varios.
Siflun escribió:Sajuuk_ escribió:respetará los derechos de los seres humanos
¿Qué derechos?
Los humanos...
Siflun escribió:Sajuuk_ escribió:potenciará las capacidades de los seres humanos en su libertad
Queda incluído en esto:
Sajuuk_ escribió:procurará ampliar la duración y calidad de vida de los seres humanos, siendo la calidad de vida subjetiva y dependiente de cada ser humano. En ningún caso la disminuirá.
Puede estar incluido, que creo que no, pero esa parte es más prioritaria, y la regla 3 más que la 4 pero menos que la 2.
Siflun escribió:Pero ¿No les da eso un papel demasiado activo? No quiero que un robot se vea obligado a intentar meterse en política. Incluso manipulando a la gente para que le den su aprobación y así respetar aquello de "en su libertad".
Me refiero a la libertad de los seres humanos.
Siflun escribió:Sajuuk_ escribió: respetará la voluntad de los seres humanos y la seguirá en la medida de lo posible
Si, eso es lo mismo que la segunda ley.
No es lo mismo la voluntad que obedecer, la voluntad puede conocerse de manera implícita, deducirse o suponerse, obedecer entiendo que se aplica a órdenes explícitas.
wakisneu escribió:Si habéis acabado de leer la saga de libros de Asimov, Fundación...debéis tener el cuenta la Ley Cero de la Robótica. Esa sería la primera ley de todas, aunque a mí no me convence para nada.
No la conozco, pero espero que no sea algo relacionado con los sentimientos, desde un punto de vista de validación de la seguridad de un producto que se va a producir masivamente es completamente inaceptable.
Luxfero escribió:Un robot nunca hará daño físico a un ser humano salvo para evitarle otro mayor
para elegir entre A o B, se debe de saber LO QUE ES MEJOR, y esto es el bien.
si un robot conociera lo que es el bien, seria un dios. pues, ¿no fue eso lo que le prometio la serpiente a adan y a eva: el conocimeinto del bien?
ademas, lo que es bueno para uno, lo es tambien para el resto?
Sin embargo esto no es del todo raro en medicina, muchos tratamientos tienen efectos secundarios, incluso los métodos de diagnóstico pueden ser dolorosos y en cierta forma destructivos, pero se escoge el mal menor. ¿No es así?
carferme escribió:Es broma, pero si hechas cuentas de que un esclavo hará lo que le han mandado, en este caso un robot, a si que "programado", y ha este le mandan matar a alguien este matará, asi que no podemos decir que no a una afirmación tan obvia que no dudo de que pase en algún futuro, (¿por que no?, siempre quedará algo de guerra en la Tierra, el humano nace con ella y perecerá con ella, y como va ha ser este el que mande al robot). Tambien podría utilizarse el ejemplo de las diversas armas creadas por el hombre, (¿que más da que sea un robot?, alfín y al cabo llegará a tener este un fín, podra ser tocar diversas piezas musicales en violín o matar a alguien)
Bueno, ahora tienes un ordenador, y el ordenador hace lo que le dices, pero, no le puedes decir que el dinero de la cuenta de otro te lo ponga a ti. Estas se contemplan para limitar lo que puede hacer un robot, precisamente para que no se convierta en un arma, imagina que alguien controlara skynet, sería el dueño del mundo, es demasiado poder.