El desarrollo tecnológico moderno también requiere una rápida adaptación del sistema educativo, que debe seguir los nuevos conocimientos y participar directamente en su desarrollo, porque el proceso educativo es lento y requiere mucho tiempo.
La relación entre el hombre y la máquina pronto se convertirá en una cuestión ética de suma importancia. Hoy en día ya se están celebrando debates sobre cuestiones socioeconómicas, legales y éticas relacionadas con la aplicación robótica en las actividades de servicio y colaboración. Los robots como compañeros de trabajo en el lugar de trabajo tendrán sus derechos y todos tendremos que actuar de acuerdo con la nueva robótica. ¿Ese futuro nos parece lejano? Probablemente ya esté llamando a la puerta, y si incluimos el período de nuestro ajuste, ya ha comenzado como las Revista de automatización.
Normas legales y éticas en robótica
Entendiendo la interferencia de la naturaleza y la tecnología, el famoso escritor de ciencia ficción Isac Asimov en 1942 ideó cuatro leyes básicas de la robótica en sus libros que deberían prevenir posibles problemas:
Ley cero: el robot no debe dañar al hombre ni permitir que su inactividad lo ponga en peligro.
La primera ley: el robot no debe herir a un ser humano, ni permitir que un ser humano resulte herido debido a su inactividad.
Segunda ley: el robot debe obedecer los comandos humanos, a menos que esos comandos violen la primera ley.
Tercera ley: el robot debe protegerse a sí mismo, excepto cuando viole la primera y la segunda ley.
Recientemente, han surgido leyes adicionales:
Meta ley: El robot no debe actuar si esta acción no está de acuerdo con las leyes de la robótica.
Cuarta ley: el robot debe realizar las acciones para las que está programado, a menos que esas acciones entren en conflicto con las leyes de la robótica.
Ley de reproducción: un robot no debe participar en el diseño y fabricación de un robot a menos que esa nueva actividad cumpla con las leyes de la robótica.
Desafortunadamente, por más lógicas que parezcan, las leyes propuestas son difíciles de implementar en el mundo real. Ya en la actualidad, muchos robots avanzados utilizados con fines militares violan directamente la primera ley de la robótica.
El desarrollo de la robótica se centra en una amplia gama de trabajos de servicio y entra en todos los segmentos de la actividad humana. Los robots trabajarán en interacción con los humanos, tendrán que comprenderlos a ellos y a su entorno de trabajo, tener ciertas habilidades cognitivas. Ya no serán máquinas como las de hoy que tienen sus propios certificados de protección y estándar de calidad. Serán una parte integral de nuestra sociedad. Por lo tanto, las relaciones sociales recién creadas estarán reguladas por regulaciones legales y éticas completamente nuevas, por ejemplo, ¿quién será responsable si un robot comete un error o lesiona a alguien?
El término robótica fue introducido por Gianmarco Veruggio en 2002, y trata del diseño, programación, fabricación y aplicación de robots y otros sistemas artificialmente inteligentes, cuestionándolos como agentes morales artificiales – AMA.
A estas consideraciones legales y éticas se debe agregar una comprensión filosófica de las emociones, la conciencia, los procesos de pensamiento, la memoria, la inferencia y una serie de otras preguntas para las que no hay respuestas claras en la actualidad. Por tanto, la investigación en el campo de la inteligencia artificial es más importante para los humanos que para los robots, porque contribuirá a un mejor conocimiento de nosotros mismos. Las reglas éticas no significarían una restricción para la ciencia, pero ciertamente impondrían ciertas restricciones a la aplicación de robots. Según Geoff Livingstone , el desarrollo de la inteligencia artificial y la robótica es un paso evolutivo que representa una especie de salto sociológico, señalando que la tecnología puede estar lista, pero no lo estamos, al menos todavía no. Necesitamos una visión del futuro en la que las computadoras y los robots nos complementen como humanos.