En el programa de hoy, el periodista Bruno Ortiz y el abogado especialista en temas digitales, Oscar Montezuma, discuten las implicancias, riesgos y consecuencias de la inteligencia artificial en diferentes ámbitos.
En un primer momento, se preguntó si es importante comenzar a regular el uso de la tecnología. Bruno Ortiz comentó que sí, puesto que es necesario conocer la autoría del material, ya sean libros, películas, imágenes, etc. Hoy en día hay acceso fácil a la AI que puede inventar contenido, y se tiene que transparentar que la creación ha sido con esta ayuda. Menciona que no es solo un tema de derechos de autor, porque realiza trabajos complejos; ahí va a tener que regularse hasta dónde va a llegar ese trabajo. Por su parte, Oscar Montezuma comenta que en el Perú ya se están haciendo esfuerzos para observar las regulaciones necesarias, para conocer el panorama de la AI y la propiedad intelectual.
Ambos están de acuerdo en que este es un debate que viene discutiéndose hace ya varios años, pero aún no se llega a delimitar concretamente por reglamentos. Montezuma comenta que es un tema muy transversal, que abarca distintas áreas. ¿Qué pasaría si en algún momento los robots toman nuestro lugar?
Asimismo, es fundamental abrir espacios de discusión, y recordar que esta tecnología no es algo nuevo y la utilizamos en muchos aspectos de nuestras vidas. Al respecto, Montezuma señala que cada vez que surge una tecnología nueva, hay una revolución por su regulación. Comenta que siempre hay una respuesta legal, no siempre llega a tiempo, pero existe. Ortiz destaca que la solución es la transversalidad, pensar en dos cosas: primero, que las nuevas tecnologías a las que nos enfrentamos son tecnologías que no afectan solamente a un grupo de personas, afectan a todo el mundo y si eso no está bien definido, eso causará un problema; y segundo, prevenir lo que va a venir.
Se abrió la pregunta sobre si deberíamos empezar a mirar el tema de datos personales o algo más a nivel tecnología masiva. Montezuma argumentó que debemos tener cuidado con los datos que brindamos, con los programas que usamos. Un software, por ley, no puede ser autor intelectual, así que por ese lado hay un vacío legal con el que hay que tener cuidado.
Hay mucho riesgo con los contenidos generados por AI, porque alguien podría causar daños. ¿Quién toma responsabilidad por ello? Ambos invitados concuerdan con que es un tema bastante sensible actualmente, que debería primero averiguarse los culpables; pero los gobiernos tienen que ser los responsables de legislar, no las empresas.