Abogados expertos en Derecho Comercial y Gubernamental, y litigios complejos en ambas materias.
El término inteligencia artificial (IA) surge a mediados del siglo XX exponiendo una verdad que muchos jamás creyeron posible: el ser humano puede crear máquinas capaces de ejecutar procesos análogos al aprendizaje y al pensamiento humano.
El desarrollo de la IA no fue fácil, pero ciertamente resultó más rápido de lo esperado. El problema al que se enfrentaron sus primeros exponentes se encontraba en lograr que las computadoras almacenaran la información con la que trabajaban. En palabras de Rockwell Anyoha, en The History of Artificial Intelligence, publicado por la Universidad de Harvard, “a las computadoras se les podía decir qué hacer, pero no podían recordar lo que hicieron”.
Los obstáculos fueron sorteados y mucho antes del fin de milenio, las computadoras ya se habían convertido en herramientas con sofisticados sistemas de procesamiento y gran almacenaje de datos, que poco a poco suplían funciones humanas y facilitaban las tareas de sus usuarios.
El progreso no se detuvo en la construcción de supercomputadoras y continuó con el desarrollo de programas informáticos inteligentes, cuyo principal objetivo ya no es simplificar la vida de los seres humanos, sino hacer mejor y más rápido lo qué los seres humanos pueden hacer, toda vez que, precisamente, la IA no se encuentra condicionada por los límites biológicos del intelecto humano.
En ese sentido, pareciera que no existen riesgos en el uso de la IA, porque podríamos entender que su control reside en manos de sus creadores; sin embargo, y como varios expertos han apuntado, dada la propia complejidad en la programación de la IA, así como la celeridad de su desarrollo, se convierte en una cuestión poco entendida y, por lo tanto, poco regulada.
En 2015, el profesor de la Universidad de Oxford y experto en temas como riesgos existenciales, Nick Bostrom, anunciaba en una conferencia que si bien aún (en ese entonces) no era posible asegurar que la inteligencia humana hubiera sido completamente emulada por la IA, no faltaba mucho para el nacimiento de una “superinteligencia”, misma que mientras no fuera controlada no se detendría en la consecución de sus objetivos sin importar el daño que ocasionara a la humanidad en el proceso.
Si bien es cierto que reconocer la utilidad de la IA resulta muy sencillo, también lo es que nadie, ni siquiera sus propios desarrolladores, es capaz de anticipar por completo sus alcances. Sirva como ejemplo de lo anterior el sonado escándalo alrededor de Facebook y Cambridge Analytica (CA).
En marzo de 2018, Christopher Wylie, ex Director de Investigación de CA, reveló a distintos medios que dicha empresa no solo habría obtenido de manera ilegal la información privada de más de 50 millones de usuarios de Facebook sin su consentimiento, sino que además había hecho uso de esa información para, con base en estudios que determinaran gustos y personalidades de los usuarios, segmentar anuncios publicitarios, hechos a la medida, y de esa manera influenciar la elección presidencial de los EE. UU. en 2016.
Mark Zuckerberg, fundador y Director Ejecutivo de Facebook, ofreció disculpas públicas por la fuga de información y, después de una larga y muy publicitada comparecencia ante el Congreso de los EE. UU., se comprometió a, entre otras cosas, mejorar los mecanismos de privacidad de datos para los usuarios de la plataforma.
No obstante, e independientemente de las consecuencias que ambas empresas hayan sufrido por las conductas que se les imputan, ¿cuál es la preocupación real detrás de este suceso? Lo poderoso de la IA y lo desconocido que resulta ese poder, principalmente de autodesarrollarse, para todos a su alrededor.
Para ejemplificar el desconocimiento que envuelve en realidad a la IA, podemos considerar que, antes de las filtraciones de CA, Facebook no contaba con que una aplicación habría un uso abusivo de la información contenida en los perfiles de sus usuarios, por lo que no se habían implementado los controles y defensas adecuadas para evitarlo; no fue sino hasta que se hizo público que CA pretendidamente influyó en un proceso electoral utilizando información obtenida de Facebook inclusive sin el conocimiento de dicha plataforma (según las declaraciones de Zuckerberg), que se empezaron a cambiar los controles de privacidad; es decir, la naturaleza de la IA ha provocado que su desarrollo sea de forma correctiva, en vez de creativa.
¿Este escenario puede replicarse en cualquier otra industria? Por supuesto y la industria del juego no es la excepción. En los últimos meses algunos medios han publicado notas sobre la obtención de datos personales y su análisis en aras de promocionar sitios de juego en línea u online, lo cual claramente es una práctica común y legal para el marketing de nuestra época; sin embargo, la línea de la legalidad se desdibujaría, por ejemplo, en caso de que esta misma práctica de promocionar sitios online con base en IA se llegare a dirigir deliberadamente a jugadores vulnerables con tendencia a desarrollar juego compulsivo.
Por otro lado, no es de extrañar que el mercado del juego online resulte atractivo para quienes llevan a cabo este tipo de prácticas dado que su crecimiento se encuentra en ascenso. Según un estudio publicado por Research and Markets, se espera que para el año 2022 la industria del juego en línea genere aproximadamente $81.71 billones de dólares.
Sin normas adecuadas que aseguren actuaciones transparentes, protección de datos y una cultura de juego responsable, mientras mayor sea el número de jugadores mayor será la vulnerabilidad para el mal uso de la IA dentro de la industria.
La falta de regulación que gira en torno a la IA responde, por un lado, al vertiginoso ritmo al que ha avanzado su desarrollo, por otro lado, se debe a la falta de entendimiento tanto de su naturaleza, como de sus alcances. Uno de los mayores inconvenientes al que siempre estarán expuestos los legisladores es a la prevención de supuestos que por no existir en su tiempo, no pueden ser debidamente previstos.
Ahora corresponde no solo a las autoridades sino a toda la sociedad involucrada fomentar la creación de normas que protejan a los usuarios y que obliguen a los creadores de IA a replantear su camino hacia un uso ético del quehacer científico.