Porque la Inteligencia Artificial (Seguramente) no te va a quitar el trabajo
Tranquilo, Skynet no te va a quitar la chambas aunque sea 10 veces más rápido que tu. El Reglamento Europeo de la Inteligencia Artificial va a limitar como la Inteligencia Artificial se introduce en los puesto de trabajo.
Javier Caldito
7/29/20244 min leer
Existe la preocupación de que unas Inteligencia Artificial extremadamente autónomas y eficientes puedan sustituir a trabajadores en sus puestos de trabajo. Escribía Schumpeter sobre la capacidad destructora del emprendimiento, en la que innovación arrasa con los medios tradicionales de producción para abrir la puerta a forma más eficientes de crear valor. Sin embargo, la IA por su naturaleza y especialmente por el afán regulatorio de la Unión Europea, estará limitada y muchas veces dependerá de ser supervisada por la persona a la que pretendía sustituir.
1. La IA no asume la responsabilidad civil.
Ya hemos hablado anteriormente sobre la responsabilidad civil, aunque en resumen se trata en la obligación de las personas a reparar (económicamente) el daño causado. Hay actividades profesionales, que por su complejidad, pueden generar daños superiores si se realizan de forma negligente o culpable.
Pensemos en el médico que por negligencia causa una infección letal en un paciente o la de un arquitecto que diseña erróneamente un puente que se hunde con víctimas mortales. Ademas, la IA podría realizar contratos con los que el empresario no estuviese de acuerdo, como un ChatBot de atención al cliente.
El culpable de dichos daños respondería de forma personal, usualmente con un seguro de responsabilidad civil e identificarlo sería sencillo. Sin embargo, en caso de que una inteligencia artificial provocará daños, ya sea porque hay una mal función o no, es más complicado para las víctimas poder solicitar indemnizaciones. En todo caso, responderá el proveedor o el operador de la inteligencia artificial..
2. La IA necesita supervisión.
Por los potenciales daños que pueden generar las IAs, Europa apuesta por qué haya una persona que verifique y vigile el correcto funcionamiento. Esto será más notable en sectores que por su importancia estratégica no puedan ser integralmente cedidos a las máquinas.
Hay un listado de usos de la inteligencia artificial denominados como de alto riesgo y son como ejemplo el manejo de las infraestructura energéticas, el mantenimiento de la red eléctrica, el control del espacio aeronáutico y las telecomunicaciones. Si alguno de estos sectores sufriera un colapso, provocaría graves perjuicios a los ciudadanos. Ademas, el riesgo no existe solo en el software en si mismo, sino en los productos donde el software se integre, ya sean juguetes, coches, aviones, etc.
Por ello, para minimizar el riesgo, en estos sectores tendrá que haber siempre una persona vigilando el funcionamiento de la IA. En el Reglamento de la IA, Europa apuesta por la alfabetización en IA, donde las empresas solo podrán realizar el lanzamiento o desarrollo de productos con IA mediante personas que tengan formación especifica y conozcan de la circunstancias particulares del publico al que se dirige.
3. Usos de IAs prohibidos.
No todas las IAs serán legales. Habra algunas que se utilicen para cometer delitos o realizar practicas indebidas. Aunque la IA puede ser útil para realizar tareas repetitivas y predecibles, la creatividad y el juicio humano siguen siendo esenciales para el desarrollo seguro de software. Por lo tanto, los programadores seguirán siendo indispensables para el avance y la evolución de la tecnología. Como ejemplo, los usos de las IAs que estarán prohibido por Europa:
Utilizar técnicas subliminales para alterar el comportamiento de las personas.
Aprovechas las vulnerabilidades de las personas para influir en grupos de personas.
Evaluar o clasificar a las personas por sus características personales y darles una puntuación ciudadana.
Crear criterios de puntuación predictivos sobre la posibilidad de una persona de delinquir.
Ampliar bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet de circuitos cerrados de televisión.
Alterar las emociones de las personas en centro de trabajo o de formación.
Catalogar a las personas por sus datos biométricos, sexo, raza, identidad de genero.
4. Generalidad y Costes de Escala
SI la IA es un elemento de productividad de la empresa, debe de ser considerado como un elemento de producción del capital. Este elemento sustituiría a trabajador dicho del modelo de producción. El empresario, para reducir costes y aumentar su margen de beneficio, busca economías de escala que favorezcan la productividad. Sin embargo, habría que estudiar si la incorporación de la IA en equipos de humanos tiene efectos marginales crecientes o decrecientes en la eficiencia.
Otro factor a tomar en cuenta es si el uso combinado de la IA con trabajadores humanos hace menos eficientes a los humanos, desincentivando los planes de formación dentro de las plantillas. En 1986, los profesores de matemáticas estadounidenses se manifestaban el uso de las calculadoras matemáticas dentro de las aulas por el temor a que los alumnos perdieran capacidades aritméticas; sin embargo su uso no ha sido negativo para el desarrollo tecnológico.
Por ultimo, la IA no es omnisciente y comete errores cuando se hacen preguntas muy técnicas y especificas. Más peligroso es aún, que a pesar de desconocer la respuesta, realiza una afirmación errónea camuflada por una apariencia de certeza. Cuando he preguntado a ChatGPT o Claude y estas me han dado respuestas erróneas, nunca me han dicho que desconocieran la respuesta, ya que están diseñadas para arrojar siempre un output. Un humano, a pesar de ser orgulloso, es más propenso a decir "No Se, busca en otro lado".