Detalles de la tercera jornada del Congreso CiberTodos20 de ISACA Madrid: «Ante la infosicación, no hay democracia sin pensamiento crítico»

En artículos anteriores os hemos hablado del Congreso CiberTodos20 de ISACA Madrid Chapter, tanto de forma general en el artículo «Congreso CiberTodos20 de ISACA Madrid Chapter«, como en detalle acerca de la 1ª jornada en el artículo «Identificar, 1ª Jornada de CiberTodos20» y la 2ª jornada en el artículo «Proteger, 2ª Jornada de CiberTodos20«. Hoy toca contaros cómo fue la 3ª jornada del día 15 de octubre… ¡un lujo y éxito como siempre! 😉

Ricardo Barrasa García, Presidente de ISACA Madrid Chapter (@ISACAMadrid) comenzó dando la bienvenida a la jornada y resumiendo los excelentes datos de la jornada anterior, la 2ª.

El 50% de los asistentes comentó que era de fuera de España, especialmente de Latinoamérica, pero no en exclusiva. En cuanto a volumetrías, si en la 1ª jornada asistieron 1.350 personas, en la segunda fueron 1.150 y el objetivo ideal deseable -decía-, sería alcanzar el récord de ISACA Internacional con más de 1.700 asistentes. ¡Estamos cerca!

Respecto a las valoraciones, tanto de cada jornada, como del evento, ponentes organización, como no puede ser de otro modo ;-), los resultados de las encuestas revelan que lo estamos haciendo bien y que os está gustando, -comentó Ricardo-. Todas las valoraciones medias están por encima de 9 puntos de 10. ¡Gracias!

Ricardo también comentó que, de momento, el evento estaba siendo en abierto y gratuito para todo el mundo, pero que en posteriores solo lo será para asociados de ISACA Madrid.

Además, Ricardo agradeció especialmente la labor de

…Sin quienes todo esto sería imposible, -aseguró Ricardo-.

Por otro lado, y para finalizar su intervención inicial, Ricardo anunció una primicia. La participación de ISACA Madrid y próximo Primer Congreso Iberoamericano de Ciberseguridad, que será 100% online, el 26-30 de Octubre de 2020, con el lema «Ciberseguridad, un desafío que trasciende fronteras«, en el que se tratarán temas como  la ciberinteligencia, la resiliencia, la ciberresiliencia, el riesgo… En este congreso participarán hasta 24 de los Capítulos de ISACA y será solamente para asociados, a los que se les asignarán 18 CPEs.

Acto seguido, se dio entrada a esta 3ª jornada, haciendo una rápida presentación de los contenidos de la misma y ponentes, en sus tres tradicionales bloques como en las dos anteriores:

Apertura Institucional, en este caso a cargo de Fernando Velasco, Director de la Cátedra de Servicios de Inteligencia y Sistemas Democráticos de la Universidad Rey Juan Carlos).

Entrevista a Román Ramírez Giménez (Consultor independiente de ciberseguridad, Cofundador de RootedCon y Colaborador de la Fundación GoodJob) por parte de Carlos Otto (Periodista de tecnología, economía, reportajes y emprendimiento en El Confidencial y responsable de El Enemigo Anónimo).

Y, la Mesa Redonda «La desinformación como vector de desestabilización. ¿Cómo ayuda la ciberinteligencia?«, con Luis Fernández Delgado (Editor de la Revista SIC), Andy Ramos Gil de la Haza (Counsel de Pérez-LLorca), Jaime Andrés Restrepo Gomez (CEO de DragonJAR), Julio San José (Partner, Spain FSO Cybersecurity de EY) y Félix Arteaga (Investigador principal, Seguridad y Defensa, del Real Instituto Elcano), como moderador.

¡Sin filtros! la apertura institucional de esta 3ª jornada, con la primera intervención, no pudo ser mejor. ¡Brutal! ¡Magistral! Hacía mucho tiempo que no escuchaba una charla tan bien preparada, tan bien hilada, tan bien pensada, que tocaba todos los palos, con datos poderosos, con ejemplos clarísimos, con alusiones a terceros, autores, etc., y con mucha humildad, aun siendo un crack.

Excepcional, una Master Class de mucha altura en la que el Dr. D. Fernando Velasco habló «ex cátedra«, como no puede ser de otro modo, debido a su cargo de Director de la Cátedra de Servicios de Inteligencia y Sistemas Democráticos de la Universidad Rey Juan Carlos.

El inicio de la charla comenzó con una frase que ya auguraba un inicio, nudo y desenlace, bastante prometedor: «En la vida hay dos tipos de profesores, los que no tienen ni idea y los que no saben ni esto«, -comenzó diciendo Fernando con energía-.

Continuó haciendo la entradilla a la temática a tratar en esta sesión, relacionada con la desinformación y la manipulación diciendo que «la realidad es poliédrica» y que, en ella, «la desinformación esa el vector de desestabilización» ideal.

«En la antigua película Tiempos Difíciles se decía que nos hemos extraviado por el camino… y, en realidad, así es. Necesitamos pararnos, pensar… porque todo va demasiado rápido, es inmediato, para ya… no pensamos...», -continuó diciendo el Dr. Velasco-.

«Necesitamos agua potable porque vivimos en la era de la infosicación, en un tsunami de información que, en la mayoría de los casos es sesgada, orientada, manipulada, o directamente mentira«, -dijo-.

«Debemos poder y ser capaces de distinguir entre la verdad y a mentira, pero también entre lo urgente y lo prioritario porque esto os hace consumir de forma equivocada los contenidos e incluso interpretarlos erróneamente«, -siguió argumentando-.

A la hora de basarse en datos, expuso que, según el diario The Economist, se había calculado y estimado que los usuarios en breve estaríamos consumiendo más de 62Gb diarios de información miles de diversas fuentes. También aportó una «lapidaria» pero quizá nada desacertada frase de The Guardian: «Si Facebook fuera un país, sería Corea del Norte«.

En este contexto y haciendo comparaciones con aquella frase que mencionaba en una de sus películas, Velasco también parafraseó a Woody Allen: «Doctor, mi hermano está loco, se cree una gallina. ¡Que lo encierren! Lo haría, pero necesito los huevos» 😉

Sin duda, como se ha dicho muy habitualmente «un país vale lo que vale su prensa«… «pero yo me permito añadir también que un país vale lo que valen sus Redes Sociales«, -añadía Fernando-.

Continuaba diciendo que padecemos una verborrea global como resultado de la creación y el funcionamiento de fábricas de bulos y noticias falsas (fake news), que apelan a nuestros sentimientos pará ser fácil e inmediatamente creíbles. Desmentir es complicadísimo, -decía-. «Cuesta tres veces más desmentir una noticia falsa que crearla» -aseguraba-.

Pero, ¿cuáles son los motivos u objetivos finales? El Dr. Velasco aseguraba que, probablemente, mucho más de carácter económico que político. Y, por otro lado, «¿Por qué una noticia falsa no es un delito?«. Y finalizaba asegurando que «No hay democracias sin pensamiento crítico. La privacidad es la clave de la democracia«.

«No sé si han tenido la ocasión y el placer de haber leído ustedes <<La Era del Capitalismo de la Vigilancia>>, de Shoshona Zuboff. La lucha por un futuro humano frente a las nuevas fronteras del poder. Por favor, si no lo han hecho aún, háganlo; porque… ríanse ustedes de <<1948>> de George Orwell, de verdad«, -comentó-.

Así finalizó el Dr. Fernando Velasco su colosal intervención que nos dejó a todos anonadados, atónitos, enganchados y con ganas de más, de mucho más ;-). ¡Esperemos (por favor) que ISACA Madrid publique la grabación de esta intervención para poderla volver a ver, e incluso verla varias veces para que no se nos queda nada en el tintero! 😉

Continuó Carlos Otto (Periodista tecnológico de El Confidencial, @elconfidencial y responsable de El Enemigo Anónimo, El Enemigo Anónimo en LinkedIN, @EnemigoAnonimo_ en Twitter y elenemigoanonimo en YouTube) conversando unos minutos con Román Ramírez Giménez (Consultor independiente de ciberseguridad, Cofundador de RootedCon y Colaborador de la Fundación GoodJob).

Comenzaron hablando, cómo no, de la pandemia. La pregunta de entrada fue simplemente «¿qué tal?«. La respuesta, un obvio y jocoso… «teletrabajando» ;-).

Carlos pedía a Román que se definiese en pocas palabras. Román decía «creo que lo tengo puesto así en LinkedIN… Soy un paladín«. Y me explico, dijo Román. «Un paladín es quien sabe cuál es su deber y lo cumple hasta el final, hasta las últimas consecuencias«, ¡ahí es nada! «En mi caso, es perseguir el mas y no cejo en mi empeño«. ¡Toma!

«Y, Román, tu profesión, es por vocación o por obligación«, le preguntó Otto. «Ni una ni otra, totalmente circunstancial. En Zaragoza me movía y estaba siempre rodeado con un grupo de hackers (Glaucoma) y de ahí surgió.«, -respondió Román-.

Como en las entrevistas anteriores, Carlos le preguntaba a Román sobre los consejos que les daría a niños de 10 años, a menores y adolescentes. Román contestaba con una sonrisa y cierta ironía «De la adolescencia se sale y se sales de una forma más luminosa y reforzada«.

En lo que se refiere a una película a recomendar, Román nos proponía «Horizontes Perdidos» pero también cualquier otra de la época dorada de Hollywood, de los años 60.

Carlos y Román continuaron conversando sobre la seguridad o la inseguridad de las familias, de [email protected] [email protected], menores. «En vuestro caso, Román, ¿cómo lo lleváis?«, -preguntó Carlos-. «Ya sabes, en casa del herrero, cuchillo de palo, pero con varios dispositivos, conectividades… creo que estamos y estaremos razonablemente seguros, siempre y cuando sigamos unas prácticas razonablemente higiénicas en el uso de los mismos y de Internet«.

Entrando en materias más escabrosas como el ciberterrorismo, se puso encima de la mesa la desafortunada asimetría existente. «Algunos de los talibanes derribaban helicópteros rusos tirándoles piedras, simplemente«, -decía Román-, «En el caso que nos ocupa de la tecnología, de la ciberseguridad, en cualquier momento puede aparecer un actor descontrolado que, con una pequeñísima piedra tecnológica pueda derribar cosas muy grandes… Esto es así, es como una guerra de guerrillas… pero tenemos que convivir con ello y saber adaptarnos, protegernos y reaccionar«, -aseguraba Román Ramírez-.

Y, aun yendo más allá, lo más preocupante es que alguien sea capaz de que otra persona/empresa utilice un software o una tecnología desarrollada por ella, que ésta ya ha manipulado o debilitado en el origen, con otros fines y el objetivo de hacer daño o lograr otras cosas, como bien decía Román para finalizar la respuesta a la pregunta.

«¿Qué te gusta más en tu trabajo?«, preguntaba Carlos. «Que gusta decir no a la rutina, no ceñirme en detalles concretos durante mucho tiempo, que el trabajo sea cambiante, que haya dinamismo, poder innovar, reaccionar, investigar…«, decía Román-.

Ahora estás inmerso en un proyecto muy interesante. ¿Nos podrías contra un poco más, Román?. «Sí, se trata del Proyecto Include, de la Fundación GoodJob, que me encanta y me está llenando mucho«.

Y Román, nos explicó un poco más el detalle de sus objetivos, modelo, forma de trabajar…

«Se trata de un programa de inclusión, que va un poco más allá. Se trata de partir de la misma posición. Se trata de formar a personas discapacitadas, pero de un modo distinto y con un objetivo algo diferente. Cuando estas personas son formadas en otros proyectos, generalmente solo ocupan posiciones de muy poco valor. Ahora, con este proyecto, consiste en darles una <<formación de impacto>> de 5 semanas, con profesores y profesionales muy cualificados, para que consigan una capacitación mínima pero importante que les permita entrar en la base de la pirámide del mercado de la ciberseguridad«. Suena fantástico, ¿verdad?

La entrevista continuó con la siguiente pregunta de Carlos: «En tu vida profesional, ¿cuáles han sido los peores momentos?«. Sin duda, contestó Román, «aquellos en los que he tenido que convivir con personas que, aun con su ausencia de talento, han subido hasta arriba y están en el top (políticos, por ejemplo), pero son mediocres y están esperando para <<hacerte luz de gas>>«.

¿Un consejo? «No me gusta dar consejos, ni que me los den. Lo mejor es dejar a la gente que se equivoque por sí misma. Eso es lo natural. Creo que todos debemos pasar nuestras propias horas de fallar, de prueba o error.«, -decía Román-.

Y, dentro de la entrevista, llego el momento de que Román respondiese la pregunta que le dejó Ofelia Tejerina (Presidenta de la Asociación de Internautas) en la anterior jornada/entrevista, que fue la siguiente: «¿Cómo crees que es y debe ser la relación entre abogados y hackers, cómo crees que debería ser; y por qué existe recelo entre ambos tipos de perfiles y en especial si los abogados son mujeres?«

Román comenzó «Gracias Ofelia por esta pregunta tan <<simpática>>» ;-). «Creo que la clave está en la visión de cada uno de estos perfiles. Mientras uno de ellos, los técnicos, los hackers están obsesionados en el detalle de forma incluso enfermiza, los otros, los abogados, tienen una visión más horizontal y 360º Y, ambas formas, son, creo, totalmente diferentes, aunque complementarias«.

«Si me preguntas qué hacer«, -continuó Román-, «te diría que trabajar con respeto y sobre todo generosidad con la opinión que tienes delante, haciendo que ambas visiones se complementen y trabajen conjuntamente en equipo«.

La semana que viene, estará con nosotros en la entrevista Alejandro Marín (CEO de Forocoches), -comentó Carlos-. Por favor, Román, ¿nos dejas una pregunta para él?, -le pidió Carlos-. Román dijo «¿Crees que la libertad de expresión está limitada y qué harías?«

Para dar fin a la jornada, con el listón altísimo, éste aún subió más con el interesantísimo e intensísimo debate de la mesa redonda «La desinformación como vector de desestabilización. ¿Cómo ayuda la ciberinteligencia

  • Félix Arteaga (Investigador principal, Seguridad y Defensa, del Real Instituto Elcano), como moderador de la mesa.

Félix comenzó haciendo una presentación de los participantes en la mesa y haciendo una breve introducción a modo de entradilla sobre la materia a tratar, la desinformación. Comenzó diciendo que «la Sociedad de la Información tiene una enfermedad propia que es la desinformación, puesta ahí para cuestionar, suscitar dudas, agitar, controlar al individuo, al pensamiento, a la sociedad«.

«El ciberespacio nos unía, pero ahora la desinformación nos fragmenta en burbujas y estamos viviendo un momento crítico de la Infodemia dentro de la Pandemia«, -continuó diciendo Félix-.

Ya ahora, os pregunto, «¿Esla desinformación una cuestión de Estado, o solo afecta a las empresas y sociedad?«

Comenzó contestando Luis Fernández, con un ejemplo muy claro. «Hace 720.000 años el ser humano descubrió el fuego, pero solo hace 130 años que inventó el extintor para apagarlo. Ocurre lo mismo en este caso, tenemos la información, la comunicación, los canales, la manipulación, pero aún no tenemos las herramientas o mecanismos para detectar y apagar mentiras, desinformaciones, o manipulaciones«… «Tenemos canalizaciones de información descontrolada, pero no tenemos el controlador«.

Y, por otro lado, -continuaba apuntando Luis-, «las posibilidades de que esto ocurra, de que lleguemos a tener ese controlador, están desvirtuadas«. «Estamos en, como bien reza el libro de Bruno Patino <<La Era de la Civilización de la Memoria de Pez>>. Como mucho, retenemos o recordamos los 8 últimos segundos de una comunicación. A partir de ahí comenzamos a olvidar y jugar al teléfono estropeado.«.

Andy Ramos, tomó el testigo, continuando con la ronda de respuestas y el debate, desde su faceta legal «Tenemos el derecho a recibir, y la obligación a emitir, información veraz. Quien esté manipulando está atentando contra ello.» «Pero, bueno, ahí está «la mentira modelada para modular o modelar la realidad intencionadamente«.

«Tomando el ejemplo de la pequeña piedra o guijarro tecnológico con el que comentaba antes Román, se podía hacer mucho daño, evidentemente, los competidores pequeños podrán usarlo en contra de los grandes«, finalizó Andy.

Julio San José nos decía que «debemos estar continuamente vigilando estos <<incendios digitales>>, que vuelan como la pólvora y son millones«. Además, «hoy por hoy no sabemos defendernos y debe seguir la búsqueda de ese extintor«, -concluyó-.

Jaime Andrés continuó, dejándonos una reflexión curiosa pero acertada: «Esto afecta a todos porque en realidad solo consumimos la información que nos agrada y además solo nos relacionamos con otras personas a las que también les gusta ese tipo de información«. Si, la verdad es que cierto, pero es algo muy interesante en lo que pensar. «Es el modelo de <<su verdad>>, <<nuestra verdad>>, pero, ¿cuál es verdad?«

Y, ¿cómo se puede combatir?, preguntó Félix.

«Quizá con veteranos, plataformas de conducción«… «Facebook ha anunciado que tendrá en octubre un Consejo de Vigilancia para tenerlo funcionando antes de las elecciones de Estados Unidos«… comenzaba diciendo Luis.

Pero… la pregunta es… «¿de verdad quiere la ciudadanía estar bien informada, o se la trae al pairo?«, -preguntó Luis-.

«Si la respuesta es que sí quiere, desde mi punto de vista hay varias cosas que hacer: Formación desde muy temprano que incluya el ejercicio de la valoración de la veracidad y, por otro lado, Impedir por todos los medios que se divulgue este tipo de de desinformación«, -planteó Luis Fernández-.

«En su momento no sabíamos defendernos del malware y de otros tipos de amenazas, pro hemos aprendido con el tiempo a protegernos, a detectarlos. Quizá es que en el caso que nos ocupa debe ocurrir lo mismo«, -sugería Andy-.

Andy Continuó exponiendo como se están organizando muchas «Comisiones de la Verdad» (en Estados Unidos, el Global Engagement Center, por ejemplo) y comisiones de monitorización y control del «me gusta» y del «no me gusta«. En realidad, todo se basa en el Pensamiento Crítico, -dijo-. En Europa también las hay para evitar la propaganda de Rusia. Suecia, Francia y Alemania, la opinión pública se puso en contra de este tipo de iniciativas. Y, en España, se gestiona todo por vía judicial.

«Existen mecanismos automáticos de análisis de contenidos en Redes Sociales y otros canales«, -continuó exponiendo Andy-, «pero entiendo que el modelo no debe ir a la moderación de contenidos, sino a determinar y comunicar lo que es cierto, con seguridad. Para esto, además, existen los llamados <<factcheckers>>«.

Entre todo ello, podría haber otros mecanismos además de los factcheckers. en primer lugar, las Redes Sociales deben corresponsabilizarse, de verdad. Y, además, se pueden establecer mecanismos de karma (que ya tiene los foros y agregadores de contenidos desde hace tiempo), pero sin bloqueo (porque es vital dejar esa decisión final en manos del usuario), -finalizó comentando Andy-.

«No me gusta nada ese término de <<Los Ministerios de la Verdad>>«, -decía Julio-. «Creo que debemos usar el contraste con el mayor número de fuentes posibles, sistemas de vigilancia, detección y notificación de falsos usuarios… todo lo que podamos, de forma conjunta para tener más posibilidades«.

Jaime finalizó esta ronda de respuestas asegurando que ya teníamos ese tipo de mecanismos que habían salido encima de la mesa, pero no habían funcionado o no como se esperaba que lo hiciesen… factcheckers, otras iniciativas de verificación de contenidos, el uso de karmas… «La realidad es que todo esto, aunque pueda sonar muy bien sobre el papel, no es práctico porque tiene dependencias (no son actores independientes), son muy costosos, son complejos de implementar, en muchas ocasiones es extremadamente complicado determinar la fuente real…«.

Ante esta situación, puede que el «modelado del contenido» sea una alternativa, -planteaba Jaime-. «Si éste fuese viable, sencillo, corto, claro, directo, multimedia, fácil de digerir… es probable que lo consumiésemos y analizásemos de otro modo que sí nos permitiese valorarlo«, -proponía Jaime-.

La mesa continuaba con una siguiente pregunta planteada por Félix: ¿Se podría valorar el activo de la ciberinteligencia en las empresas para contraatacar a la desinformación?

Luis fue tajante al responder que estamos en un estado de «ciber-pre-inteligencia«, alegando que no tenía nada clara la madurez de la ciberinteligencia actual. En cualquier caso, dijo que le parecía extremadamente sofisticado para esto y que sería una minoría quien pueda aplicarlo que además podría intoxicar el modelo.

Andy coincidió 100% con Luis. Es probable que para muy grandes organizaciones como las infraestructuras críticas, la banca, los seguros, fuese viable, pero poco más. «Quizá la calve sea mucha más concienciación y asegurarse de que los empleados cumplan«.

Además, -concluía Andy-, la ciberinteligencia debe ser extremadamente escrupulosa con la legalidad y fundamentos legales aplicables en cada situación. En OSINT se manejan y analizan ingentes masas de datos, de diferentes y muy diversas fuentes, pero esto trae consigo importantes retos legales, en cuanto a la privacidad, la intimidad, la identidad y la seguridad del dato y de su propietario.

Sin embargo, Julio San José opinaba todo lo contrario. «Claro que debemos usar la ciberinteligencia, lo que tenemos que hacer es avanzarla, mejorarla y hacer que cumpla con los requisitos legales y entonces, claro que aportará«.

Es más Julio proponía aplicarla en todo lo que podamos. «Tender a usarla«, -decía-. Lo que además argumentaba es que «ya tenemos el factor humano para analizar los resultados y ser capaces de discernir«.

Si las empresas ya han entrado ya en la inteligencia de la colaboración público-privada, ¿creéis que en la lucha contra la desinformación también debe haber colaboración público privada?, les preguntaba Félix a los contertulios.

El primero en responder fue Luis, quien dijo que siempre es una relación fructífera pero que, más tarde o más temprano, suele cojear una de las patas y la otra pide reciprocidad.

Andy comentaba que, efectivamente, el aparato del Estado puede ser mucho más contundente y efectivo.

 Sin embargo, Julio tenía sus dudas, pues lo entendía como una relación demasiado asimétrica, dado que el Estado es mucho más fuerte, poderoso y capaz, mientras que, por otro lado, el 85% de las infraestructuras críticas (al menos en su experiencia) estaba en manos privadas. «Habría que ponderarlo con mucho cuidado«, -dijo-. «Se requeriría aumentar la cultura de la colaboración y de la Administración. El modelo de Estados Unidos, en estos términos, suele ser más colaborativo peor también se quejan del modelo mucho más que en Europa«.

Jaime finalizó planteando que «siempre existen intereses públicos, económicos y/o políticos que lo entorpecen«. Sin embargo sería genial y parece muy necesario adoptar ese modelo, contando por supuesto con un «control neutro» fácil de supervisar, así como monitorizando y gestionando el «abuso de poder» que al final, solo hace que perjudicar al ciudadano.

Entonces, ¿Qué hay por hacer?, les planteaba Félix.

«Siempre hablamos de que se necesita talento, capacidad, capacitación, gente bien formada, especialistas… pero este modelo formativo, está muy mal planteado, ¿no?«, -planteaba Luis-. Quiero decir, continuaba… «Vamos a salto de mata, pero ¿qué tipo de formación necesitamos y quién está realmente capacitado para impartirla?… ¿Qué necesitamos realmente?«

«Esta alfabetización en torno a la desinformación debería estar orientada a la generación de criterio desde una formación multidisciplinar y la consecución de una visión 360º«, -decía Andy-, indicando que lo que necesitábamos eran «Profesionales Redonditos» o aquellos que tienen esa visión en conjunto, 360º, siendo especialistas en algo pero sabiendo de todo, con capacidades y experiencia.

Como comentó Félix, si, lo que nosotros llamamos «Toreros Largos«, que torean todos los toros y torean en todas las plazas 😉

Según un reciente Informe del Balance de la EU sobre el Código de Conducta de las Plataformas, se han realizado ejercicios para luchar contra la desinformación y en él se resume lo que han podido y lo que no han podido hacer, ¿qué opináis?, -preguntó Félix-.

Al parecer, han procesado y filtrado millones de peticiones y se han encontrado con dificultades cuantitativas relativas a la sofisticación que es más que capaz de superar estos filtros… ¿será posible detectar y a tiempo?

«El planteamiento tal vez deba hacerse a nivel de organizaos supranacionales porque para la detección del contenido infractor, se han basado en 5.000 Millones de URLs analizadas y retiradas de los resultados de búsqueda, pero esto es un reto tecnológico ingente de análisis semántico. Es un desafío determinar la veracidad del contenido«, -dijo Andy-.

«Vamos a ver«, -comenzó tajante y enérgico Luis-. «Los canales, plataformas y Redes Sociales no pueden seguir de esta forma lavándose las manos, deben ir de una vez más allá«.

«Tenemos que crear nuevos paradigmas de regulación e instituciones que trabajen realmente en pos de la democracia«, -concluía Luis-.

«La solución debe ser viable para las plataformas, les debe satisfacer, les debe ser apetecible, les debe ser asequible y que le saquen cierto partido o rédito, y deben ser empujado a ello por mayores instancias, para que realicen acciones de compromiso e inversión«, -comentaba Jaime-.

Y, ¿el modelo de «factchecking» creéis que es la solución?, -preguntaba Félix-.

Sí podría serlo pero «¡es tal fácil desacreditar al checker!» argumentando que está manipulado, o en contra, o que tiene otras ideologías distintas… «¿cuál es mi verdad vs la verdad universal?«. «Es un modelo que no veo a largo plazo«, -opinaba Jaime-.

«Desde el punto de vista estrictamente informativo considero que es un fracaso porque no son capaces de analizar y determinar, en tiempo real, si se trata de algo veraz o falso«, -decía Luis-, mientras continuaba argumentando que para no caer en una desinformación, hay que saber «demasiadas» cosas… analizar las fuentes, consultar solo en fuentes que tengamos la certeza de que son veraces y reales… «debemos certificar fuentes verdaderamente reales y fidedignas«.

Andy tampoco era partidario de los factcheckers porque, a su juicio, «cada vez delegamos más cosas en terceros y en la tecnología, pero ¿quiénes son esos terceros?, ¿qué es esa tecnología, quién la ha desarrollado, y para qué realmente?…Nos estamos volviendo cada

De todos estos temas se habló en esta 3ª Jornada del Congreso CiberTodos20 de ISACA Madrid Chapter, pero, si queréis, podéis ver la grabación completa en este enlace: https://www.youtube.com/watch?v=_ZGxcPT0UmU.