<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Consumidor digital</title>
	<atom:link href="https://www.consumidordigital.org/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.consumidordigital.org/</link>
	<description>Conoce tus derechos como consumidor</description>
	<lastBuildDate>Mon, 05 May 2025 14:53:27 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.5</generator>

<image>
	<url>https://www.consumidordigital.org/wp-content/uploads/2019/12/cropped-logo-cuadrado-32x32.png</url>
	<title>Consumidor digital</title>
	<link>https://www.consumidordigital.org/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>D. Emérito Martínez.  Director del Programa en Inteligencia Artificial Generativa &#038; Business Innovation de EAE Madrid y Advisor Director en Jakala.</title>
		<link>https://www.consumidordigital.org/d-emerito-martinez-director-del-programa-en-inteligencia-artificial-generativa-business-innovation-de-eae-madrid-y-advisor-director-en-jakala/</link>
		
		<dc:creator><![CDATA[supervisor]]></dc:creator>
		<pubDate>Wed, 18 Dec 2024 17:14:31 +0000</pubDate>
				<category><![CDATA[Sin categoría]]></category>
		<guid isPermaLink="false">https://www.consumidordigital.org/d-carlos-vizoso-cto-de-esic-university-copy/</guid>

					<description><![CDATA[<p>La entrada <a href="https://www.consumidordigital.org/d-emerito-martinez-director-del-programa-en-inteligencia-artificial-generativa-business-innovation-de-eae-madrid-y-advisor-director-en-jakala/">D. Emérito Martínez.  Director del Programa en Inteligencia Artificial Generativa &#038; Business Innovation de EAE Madrid y Advisor Director en Jakala.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="et_pb_section et_pb_section_0 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_0">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_0  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_heading et_pb_heading_0 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">D. Emérito Martínez.</h1></div>
			</div><div class="et_pb_module et_pb_heading et_pb_heading_1 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Director del Programa en Inteligencia Artificial Generativa & Business Innovation de EAE Madrid y Advisor Director en Jakala.</h1></div>
			</div><div class="et_pb_with_border et_pb_module et_pb_heading et_pb_heading_2 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”</h1></div>
			</div>
			</div>
				
				
				
				
			</div><div class="et_pb_row et_pb_row_1">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_1  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_cta_0 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?</h2><div><p>Cuando nos enfrentamos a una aplicación de IA, debemos fiarnos de aquellas que se basan en principios de transparencia, responsabilidad y explicabilidad. Las aplicaciones que proporcionan explicaciones claras sobre cómo toman decisiones, cuáles son sus fuentes de datos y qué algoritmos utilizan, tienden a ser más confiables. Además, la fiabilidad también depende de que los desarrolladores hayan seguido estándares éticos y de privacidad rigurosos. En cambio, debemos desconfiar de aquellas aplicaciones de IA que operan como «cajas negras», donde el funcionamiento interno no es comprensible o accesible para los usuarios, ya que esto aumenta el riesgo de sesgos y decisiones erróneas.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_1 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea?¿Se ha quedado corta o ha ido demasiado lejos?</h2><div><p>La nueva Ley de Inteligencia Artificial de la Unión Europea es un paso fundamental hacia la regulación de esta tecnología. Si bien es una ley innovadora y exhaustiva, aún se enfrenta a desafíos en su implementación. En general, la ley no se ha quedado corta, pero debe mantenerse flexible para adaptarse a los rápidos avances de la tecnología. En ciertos aspectos, podría considerarse que es un poco conservadora, especialmente en términos de los plazos de transición para las empresas y las posibles limitaciones en la innovación. A medida que la IA evoluciona, la regulación debería ser revisada periódicamente para asegurar que no limite el potencial de desarrollo, pero que también proteja adecuadamente a los ciudadanos.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_2 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?</h2><div><p>El punto óptimo se encuentra en un equilibrio, donde se reconozcan tanto los beneficios como los riesgos de la IA. La IA puede mejorar muchos aspectos de la sociedad, como la eficiencia en el trabajo, la mejora de la salud y la educación, o la solución de problemas complejos. Sin embargo, los riesgos asociados, como la automatización descontrolada, el aumento de la desigualdad o la invasión de la privacidad, no deben ser subestimados. La clave está en la regulación, la transparencia y el desarrollo ético, asegurando que los beneficios se maximicen y los riesgos se mitiguen adecuadamente.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_3 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?</h2><div><p>Los riesgos de la IA para el consumidor deben clasificarse en varias categorías:<br />• Riesgos de privacidad y seguridad: Relacionados con la recopilación masiva de datos y la posibilidad de que la IA los utilice de manera indebida o sea hackeada.<br />• Riesgos de discriminación y sesgo: Cuando los sistemas de IA reproducen o amplifican prejuicios preexistentes en los datos que se les proporcionan, lo que puede afectar negativamente a ciertos grupos.<br />• Riesgos de dependencia y autonomía: El miedo a que las personas se vuelvan excesivamente dependientes de los sistemas automatizados, perdiendo capacidades críticas o volviéndose vulnerables a manipulaciones.<br />• Riesgos de impacto en el empleo: La automatización de trabajos podría generar pérdidas de empleo o cambios en el mercado laboral sin una adecuada preparación.<br />• Es esencial que se identifiquen, gestionen y monitoreen estos riesgos a medida que la tecnología se despliega.</p></div></div>
				
			</div><div class="et_pb_with_border et_pb_module et_pb_cta_4 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">• Riesgos de discriminación y sesgo: Cuando los sistemas de IA reproducen o amplifican prejuicios preexistentes en los datos que se les proporcionan, lo que puede afectar negativamente a ciertos grupos. • Riesgos de dependencia y autonomía: El miedo a que las personas se vuelvan excesivamente dependientes de los sistemas automatizados, perdiendo capacidades críticas o volviéndose vulnerables a manipulaciones.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_5 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?</h2><div><p>En algunos aspectos, los ciudadanos podrían estar más desprotegidos, ya que la IA está invadiendo sectores que antes no eran tan sensibles, como la salud, la educación y la seguridad pública. A pesar de la regulación europea, aún existen vacíos en cuanto a la implementación efectiva de las leyes y la concienciación pública. Los usuarios no siempre tienen el conocimiento o las herramientas necesarias para identificar cuando sus datos están siendo mal utilizados, o cómo las decisiones de la IA pueden afectarlos. Es por ello que se necesita un marco de protección más robusto, tanto a nivel de legislación como de educación digital para los ciudadanos.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_6 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se establece hasta dónde llega la ética de la IA?</h2><div><p>La ética de la IA debe ser guiada por principios fundamentales como la equidad, la transparencia, la privacidad y el respeto por los derechos humanos. Estos principios deben ser adaptados a las particularidades de la tecnología y deben ser revisados continuamente, ya que la IA evoluciona rápidamente. Es fundamental que se desarrollen códigos éticos y que las aplicaciones de IA sean auditadas regularmente. Las decisiones éticas de la IA no solo deben ser implementadas por los desarrolladores, sino también por reguladores y organismos independientes, para garantizar que se mantengan alineadas con los valores sociales y democráticos.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_7 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?</h2><div><p>Aunque herramientas como ChatGPT son útiles y avanzadas, los usuarios deben ser conscientes de que no siempre son 100% precisas o infalibles. El modelo está entrenado en grandes volúmenes de datos, pero no puede verificar la veracidad de toda la información que procesa. A veces, puede generar respuestas incorrectas, sesgadas o incluso fabricar hechos. Es importante que los usuarios utilicen herramientas como ChatGPT como una fuente complementaria de información, verificando siempre los datos en fuentes confiables y usando el sentido crítico.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_8 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?</h2><div><p>La IA debe desarrollarse con un enfoque de calidad sobre cantidad, priorizando la veracidad y la precisión sobre la velocidad o la escala. Para evitar la propagación de mentiras, los algoritmos deben ser diseñados con filtros robustos de verificación de hechos, fuentes confiables y mecanismos para detectar desinformación. Además, se debe fomentar la cooperación entre desarrolladores, científicos, gobiernos y la sociedad civil para crear un ecosistema de IA que valore la transparencia y la ética.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_9 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Qué acciones debe ejercitar la Administración española para poner en la práctica el reglamento europeo adaptándolo a la realidad de nuestro país?</h2><div><p>La Administración española debe garantizar que el marco legal europeo se implemente de manera efectiva a nivel nacional, proporcionando guías claras para las empresas y ciudadanos. Esto incluye establecer protocolos para la auditoría de la IA, formar a los funcionarios públicos sobre la gestión de la IA, y promover una cultura de transparencia y rendición de cuentas. Además, la Administración debe fomentar la investigación y el desarrollo de IA ética y responsable, apoyando a las startups tecnológicas españolas que apuesten por soluciones innovadoras pero seguras.</p></div></div>
				
			</div><div class="et_pb_with_border et_pb_module et_pb_cta_10 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">establecer protocolos para la auditoría de la IA, formar a los funcionarios públicos sobre la gestión de la IA, y promover una cultura de transparencia y rendición de cuentas.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_11 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores</h2><div><p>Sí, los poderes públicos en España tienen la capacidad de implementar políticas que garanticen la protección del consumidor. Pueden establecer normativas estrictas sobre la recopilación de datos, la transparencia en los algoritmos, y la obligación de las empresas de asumir la responsabilidad por los daños causados por la IA. Además, pueden crear mecanismos de supervisión y sanciones a aquellas empresas que no respeten las normas éticas y legales, contribuyendo a un entorno más seguro para los consumidores.</p></div></div>
				
			</div><div class="et_pb_with_border et_pb_module et_pb_cta_12 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">La clave para abordar los desafíos y aprovechar las oportunidades que ofrece la Inteligencia Artificial es invertir de manera decidida en la formación y capacitación de nuestros profesionales.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_13 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">- ¿Qué recomendación haría para abordar la creciente demanda de profesionales cualif icados en IA?</h2><div><p>La demanda de expertos en IA va a seguir creciendo a un ritmo acelerado, y es imprescindible que tanto las instituciones educativas como las empresas y el sector público trabajen de manera conjunta para ofrecer programas de formación actualizados y accesibles. No solo se trata de impartir conocimientos técnicos, sino<br />también de fomentar habilidades transversales como la ética, la responsabilidad y la comprensión del impacto social de la IA.<br />Es vital que los programas formativos se adapten a las necesidades del mercado y que los profesionales se certifiquen en competencias clave que les permitan no solo desarrollar tecnología, sino también comprender cómo gestionarla de manera ética y responsable. La formación debe ser un pilar fundamental para asegurar que la transición hacia un mundo cada vez más automatizado se haga de forma inclusiva y segura. Así, los profesionales estarán mejor preparados para ofrecer soluciones óptimas a los problemas que surjan, y contribuirán a que la IA sea una herramienta beneficiosa para toda la sociedad.</p></div></div>
				
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div>
<p>La entrada <a href="https://www.consumidordigital.org/d-emerito-martinez-director-del-programa-en-inteligencia-artificial-generativa-business-innovation-de-eae-madrid-y-advisor-director-en-jakala/">D. Emérito Martínez.  Director del Programa en Inteligencia Artificial Generativa &#038; Business Innovation de EAE Madrid y Advisor Director en Jakala.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>D. Carlos Vizoso. CTO de ESIC University</title>
		<link>https://www.consumidordigital.org/d-carlos-vizoso-cto-de-esic-university/</link>
		
		<dc:creator><![CDATA[supervisor]]></dc:creator>
		<pubDate>Wed, 18 Dec 2024 17:01:44 +0000</pubDate>
				<category><![CDATA[Sin categoría]]></category>
		<guid isPermaLink="false">https://www.consumidordigital.org/dna-belen-arribas-presidenta-enatic-presidenta-ifcla-abogada-experta-en-regulacion-digital-copy/</guid>

					<description><![CDATA[<p>La entrada <a href="https://www.consumidordigital.org/d-carlos-vizoso-cto-de-esic-university/">D. Carlos Vizoso. CTO de ESIC University</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="et_pb_section et_pb_section_1 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_2">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_2  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_heading et_pb_heading_3 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">D. Carlos Vizoso.</h1></div>
			</div><div class="et_pb_module et_pb_heading et_pb_heading_4 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">CTO de ESIC University.</h1></div>
			</div><div class="et_pb_with_border et_pb_module et_pb_heading et_pb_heading_5 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”</h1></div>
			</div>
			</div>
				
				
				
				
			</div><div class="et_pb_row et_pb_row_3">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_3  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_cta_14 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?</h2><div><p>Tenemos que confiar en aplicaciones de IA cuando son transparentes en su política de recopilación de información, fuentes y en el propio modelo. Que estén diseñadas o certificadas bajo GPR compliance o que han demostrado con el tiempo precisión consistente sobre los resultados.</p>
<p>En este sentido, creo que las personas tenemos que tener el suficiente criterio para saber cuando estamos proporcionando información a este tipo de aplicaciones, cuando esta información está siendo utilizada para entrenar su modelo y por ente, que política de privacidad y contrato de servicio estamos aceptando al utilizarlas.</p>
<p> Si tras este análisis, vemos que no hay ninguna explicación clara sobre cómo funciona su modelo, los resultados carecen de validez o de fuentes verificables y/o existen conflictos de interés o riesgos de manipulación de datos, probablemente sean aspectos suficientes como para no confiar en esa aplicación.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_15 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea?¿Se ha quedado corta o ha ido demasiado lejos?</h2><div><p>En mi opinión creo que la regulación de la inteligencia artificial en Europa es un gran paso desde el prisma de protección de derechos fundamentales de los ciudadanos, sostenido en garantizar una inteligencia artificial segura, transparente y ética. Es importante tener un marco regulatorio, lo más flexible posible para poder garantizar de forma transparente la protección de dichos derechos fundamentales. Ahora bien, pienso que la ley como está desarrollada actualmente puede ser insuficiente ante la evolución exponencial tecnológica en la que nos encontramos.</p>
<p> La innovación avanza más rápido que algunas disposiciones de la ley, lo que implica que queden desactualizadas en poco tiempo. Además veo muy complejo la gestión desde el prisma del cumplimiento en muchas empresas. Asegurar que todas las empresas cumplan con los nuevos estándares va a ser un verdadero desafío, especialmente en sectores con menos recursos económicos.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_16 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?</h2><div><p>Desde mi punto de vista, el equilibrio radica en varios enfoques, uno orientado a los riesgos reales( desinformación, sesgos, pérdida de empleo o reemplazo por agentes autónomos) y ventajas desde el prisma de eficiencia, usabilidad e innovación y otro desde su uso ético mediante políticas claras y educación digital.</p>
<p>Por ejemplo, no es lo mismo un sistema de spam en nuestro gestor de correo electrónico con un índice de riesgo mínimo que un sistema de puntuación social por parte de un ente gubernamental para la manipulación parcial o total de la sociedad.</p>
<p>&nbsp;</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_17 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_18 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?</h2><div><p>Por definir una clasificación ponderada en base a los enfoques anteriores, nos encontramos con cuatro categorías de riesgos:</p>
<ul>
<li>Riesgo mínimo. Sistemas de IA que presentan un riesgo muy bajo para los derechos y la seguridad de los</li>
<li>Riesgo limitado. Sistemas de IA que puedan tener un impacto moderado pero gestionado por</li>
<li>Alto Sistemas de IA que puedan afectar total o parcialmente a los derechos fundamentales o seguridad de las personas.</li>
<li>Riesgo Sistemas de IA que representan un riesgo inadmisible en la sociedad.</li>
</ul></div></div>
				
			</div><div class="et_pb_module et_pb_cta_19 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?</h2><div><p>Habría que delimitar qué entendemos por antes, ya que muchos de los ecosistemas, aplicaciones y servicios que utilizamos en nuestro día a día ya utilizaban IA desde antes de lo que pensamos. En mi opinión, desde la democratización de la IA generativa gracias a la puesta en marcha de midjourney y chat GPT, los usuarios son conscientes de estas tecnologías y por ende, pueden sentirse más desprotegidos en algunos aspectos.</p>
<p>A día de hoy el usuario puede sentir que está expuesto a un alto nivel de desinformación en las redes sociales y medios, contenidos manipulados (voice fakes o deepfakes) y en muchos casos, la ausencia de mecanismos para la rectificación de errores generados por la IA en muchas de las aplicaciones que usamos. Por ello, pienso que el criterio y la educación digital para sentirse más cómodo ante una realidad exponencial como la que estamos viviendo, es aún más importante ahora mismo.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_20 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">servicios que utilizamos en nuestro día a día ya utilizaban IA desde antes de lo que pensamos. En mi opinión, desde la democratización de la IA generativa gracias a la puesta en marcha de midjourney y chat GPT, los usuarios son conscientes de estas tecnologías y por ende, pueden sentirse más desprotegidos</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_21 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se establece hasta dónde llega la ética de la IA?</h2><div><p>Si nos basamos en los principios fundamentales de transparencia, responsabilidad, justicia, privacidad y no maleficencia, podemos afirmar que son los ingredientes necesarios para establecer un diseño, implementación y supervisión desde el prisma ético en cualquier modelo de inteligencia artificial.</p>
<p> Buscando un equilibrio desde este conjunto de principios sobre el desarrollo responsable tecnológico con la protección de los derechos humanos y la seguridad de los mismos.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_22 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?</h2><div><p>Desde mi punto de vista, es importante entender que chagpt, copilot o cualquier otra aplicación de IA generativa puede ser nuestro copiloto perfecto pero para poder usarla de una forma correcta lo más importante es tener un enfoque crítico sobre la solución que nos está ofreciendo. El criterio es la base de empoderamiento y optimización real apoyado, eso sí, por la tecnología.</p>
<p> Si no tenemos un enfoque crítico sobre lo que estamos consultando probablemente obtengamos imprecisiones ocasionadas por el entrenamiento del modelo, falta de información o incluso interpretaciones erróneas de temas tan importantes como las emociones o la ética. Chat GPT no tiene emociones y a día de hoy tampoco tiene una comprensión profunda de las experiencias humanas, por lo que sus respuestas en estos ámbitos pueden no ser correctas ni precisas.</p>
<p> Creo que es importante que las personas utilicemos estas herramientas como una herramienta en la que apoyarnos en nuestro día a día pero siempre teniendo en cuenta el enfoque crítico mencionado en unas líneas más arriba, verificando la información obtenida y elevando las consultas a otros profesionales o foros en el caso de ser necesario para evitar una interpretación equivoca.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_23 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?</h2><div><p>La estrategia de IA de una compañía, producto o servicio lo definen las fuentes de datos que habilitan al modelo para poder dar una respuesta a cualquier pregunta para la que ha sido entrenada.</p>
<p> Es decir, para que una IA pueda aportar valor a los usuarios y seamos capaces de evitar que las respuestas sean lo más verificadas posibles, la IA debe desarrollarse bajo tres enfoques: </p>
<ul>
<li>Información verificada y de calidad como gasolina de nuestro modelo</li>
<li>Audit interno y externo de revisión de casuísticas y soluciones para identificar y corregir Podemos incluso utilizar otra IA para ello.</li>
<li>Educación digital para nuestros usuarios delimitando los usos y las expectativas sobre la tecnología.</li>
</ul></div></div>
				
			</div><div class="et_pb_module et_pb_cta_24 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Qué acciones debe ejercitar la Administración española para poner en la práctica el reglamento europeo adaptándolo a la realidad de nuestro país?</h2><div><p>Como en cualquier otro gran proyecto de digitalización creo que la administración pública española tendrá que crear un organismo nacional que supervise el cumplimiento del reglamento y sea capaz de ayudar y evangelizar sobre dicho reglamento.</p>
<p>Por otro lado, proporcionar incentivos a las empresas para poder adaptar sus ecosistemas a estas nuevas normativas.</p>
<p> Y por último, evangelizar con el ejemplo desde el prisma de las administraciones públicas y establecer una campaña de educación digital a los ciudadanos y empresas.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_25 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores</h2><div><p>Desde un punto de acciones legales, los poderes públicos pueden evitar un impacto negativo de la IA en los consumidores gracias a la implementación de sanciones claras ante abusos o errores ocasionadas por estas plataformas, regulando la privacidad y la protección de los datos personales de la ciudadanía, estableciendo responsabilidades claras sobre las empresas y servicios que haga uso interno y externo de estas tecnologías e invirtiendo en una monitorización sobre las soluciones utilizadas en el marco nacional desde el prisma ético y transparente.</p>
<p>Ahora bien, como he comentado en preguntas anteriores, la complejidad de poder monitorizar dicha regulación con un crecimiento exponencial de una tecnología en auge y cada vez más democratizada será un reto para las administraciones públicas del presente y del futuro.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_26 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">la complejidad de poder monitorizar dicha regulación con un crecimiento exponencial de una tecnología en auge y cada vez más democratizada será un reto para las administraciones públicas del presente y del futuro.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_27 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?</h2><div><p>En muchos aspectos, si. Muchos ciudadanos, a día de hoy no saben si la aplicación que están utilizando es GPRD compliance, si hace una transferencia internacional de su información o incluso en muchas ocasiones desconocemos a dónde viajan nuestros datos en estas aplicaciones, así como la gestión de las mismas.</p>
<p> En una sociedad cada vez más dirigida a resultados, inmediata y donde la IA nos proporciona de forma ágil una respuesta a nuestros problemas, creo que tenemos un gran reto de educación digital y enfoque de criterio sobre el uso y la demanda de servicios en estas aplicaciones.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_28 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cuál debe ser esa regulación a partir de ahora? ¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?</h2><div><p>No sabría decir exactamente la regulación idílica pero sí los ingredientes que componen una receta de regulación que puede evitar en gran parte dichas vulnerabilidades.</p>
<p> En este sentido, creo que debemos fomentar un marco flexible con revisiones periódicas adaptadas a los grandes avances tecnológicos en los modelos que usamos en nuestro día a día, incluir regulaciones globales, ya que la IA trasciende fronteras más allá de la Unión Europea y por último, desarrollar normas específicas que den respuesta a la evolución exponencial de la inteligencia artificial junto a equipos de trabajo compuesto por expertos en esta materia de empresas tecnológicas globales.</p></div></div>
				
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div>
<p>La entrada <a href="https://www.consumidordigital.org/d-carlos-vizoso-cto-de-esic-university/">D. Carlos Vizoso. CTO de ESIC University</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Dña. Belén Arribas. Presidenta ENATIC, Presidenta IFCLA, abogada experta en regulación digital</title>
		<link>https://www.consumidordigital.org/dna-belen-arribas-presidenta-enatic-presidenta-ifcla-abogada-experta-en-regulacion-digital/</link>
		
		<dc:creator><![CDATA[supervisor]]></dc:creator>
		<pubDate>Fri, 13 Dec 2024 11:18:21 +0000</pubDate>
				<category><![CDATA[Sin categoría]]></category>
		<guid isPermaLink="false">https://www.consumidordigital.org/d-ramon-miralles-profesor-de-obs-business-school-copy/</guid>

					<description><![CDATA[<p>La entrada <a href="https://www.consumidordigital.org/dna-belen-arribas-presidenta-enatic-presidenta-ifcla-abogada-experta-en-regulacion-digital/">Dña. Belén Arribas. Presidenta ENATIC, Presidenta IFCLA, abogada experta en regulación digital</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<div class="et_pb_section et_pb_section_2 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_4">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_4  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_heading et_pb_heading_6 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Dña. Belén Arribas.</h1></div>
			</div><div class="et_pb_module et_pb_heading et_pb_heading_7 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Presidenta ENATIC, Presidenta IFCLA, abogada experta en regulación digital.</h1></div>
			</div><div class="et_pb_with_border et_pb_module et_pb_heading et_pb_heading_8 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”</h1></div>
			</div>
			</div>
				
				
				
				
			</div><div class="et_pb_row et_pb_row_5">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_5  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_cta_29 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿De qué debemos ﬁarnos, y de qué no en términos legales y de protección de datos, cuando nos enfrentamos a una aplicación de IA?</h2><div><p>R: Debemos fiarnos de aplicaciones de IA que cumplan con la legislación vigente, como el Reglamento General de Protección de Datos (RGPD), y que ofrezcan transparencia y una adecuada gobernanza en relación al tratamiento de datos. De igual manera, hemos de preocuparnos de que las aplicaciones de IA que usamos respeten los derechos de propiedad intelectual.</p>
<p>No debemos confiar en aplicaciones que no expliquen claramente cómo se recaban, usan o ceden los datos personales, ya que su uso podría representar riesgos para la protección de datos y, por ende, de incumplimiento normativo con consecuencias sancionatorias o reputacionales.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_30 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artiﬁcial europea?</h2><div><p>R: El nuevo Reglamento IA establece una base normativa, pionera en el mundo, al clasificar los riesgos de la tecnología y regular las áreas de mayor impacto. Sin embargo, aún hemos de presencias cómo se resuelven problemas como su aplicación práctica y que nuevos desarrollos e innovaciones futuras pueden quedar fuera del alcance del marco legal.</p>
<p>El Reglamento IA, por otro lado, ha sido muy criticado por algunos sectores que defienden que impide o frena la innovación, frente a la ventaja competitiva que nos llevan algunos países no europeos.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_31 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Se ha quedado corta o ha ido demasiado lejos? ¿Veremos aprobarse más obligaciones normativas con el paso de los meses?</h2><div><p>R: En algunos aspectos, se dice que se ha quedado corta al no abordar completamente los impactos de tecnologías como la IA Generativa o los grandes modelos lingüísticos.</p>
<p>Podría ser que por vía de reforma legislativa, mediante actos de la Comisión, se introduzcan obligaciones adicionales, especialmente en áreas como la protección del consumidor y la transparencia algorítmica.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_32 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">se ha quedado corta al no abordar completamente los impactos de tecnologías como la IA Generativa. Podría ser que por vía de reforma legislativa, mediante actos de la Comisión, se introduzcan obligaciones adicionales, especialmente en áreas como la protección del consumidor y la transparencia algorítmica.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_33 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas desde su punto de vista legal?</h2><div><p>R: En efecto, a menudo se contraponen visiones catastrofistas a visiones demasiado optimistas que confían en que la IA lo salvará todo. En particular, los medios de comunicación abonan un enfoque apocalíptico y no nos parece que sea la mejor manera de enfocarlo de cara al gran público. Más que asustar a la ciudadanía, hemos de informarla y educarla.</p>
<p>Por otro lado, como se ha dicho también por parte de las instituciones europeas, el punto óptimo está en regular los riesgos sin frenar la innovación, adoptando un enfoque de precaución informado. La ley debe enfocarse en garantizar que las aplicaciones de IA sean seguras, transparentes y respetuosas con los derechos humanos, equilibrando protección y progreso tecnológico.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_34 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo debemos clasiﬁcar y deﬁnir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?</h2><div><p>R: Los riesgos se pueden clasificar en éticos (sesgos en los resultados), de privacidad (uso indebido de datos), económicos (impacto en empleos) y sociales (desinformación).</p>
<p>El Reglamento aborda unos y otros riesgos e impone un sistema de responsabilidad a los desarrolladores para la protección de los usuarios y de las partes interesadas. A tener en cuenta también son las posibles afectaciones a los derechos fundamentales.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_35 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">Los riesgos se pueden clasificar en éticos (sesgos en los resultados), de privacidad (uso indebido de datos), económicos (impacto en empleos) y sociales (desinformación).</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_36 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?</h2><div><p>R: En algunos casos, sí, ya que las tecnologías avanzan más rápido que la norma. Sin embargo, iniciativas pioneras como el Reglamento europeo de IA están empezando a abordar esta desprotección, ofreciendo más salvaguardas legales, éticas y de gobernanza.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_37 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se establece hasta dónde llega la ética de la IA?</h2><div><p>R: La ética en la IA debe definirse a través de estándares claros, como el principio de beneficiencia y no maleficencia (com por ejemplo los usos para la guerra) y otros principios, así como la transparencia algorítmica. También es crucial que existan órganos de supervisión independientes para garantizar el cumplimiento de las obligaciones y la salvaguardia de los</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_38 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos ﬁar de todo lo que nos diga esta herramienta?</h2><div><p>R: pues no siempre, porque ChatGPT puede generar respuestas inexactas, incompletas o sesgadas. Aunque es una herramienta útil, debe complementarse con fuentes verificables y por parte de personas con conocimiento de la materia en cuestión. Lo que es especialmente verdad para temas sensibles como la salud, la seguridad y los derechos de las personas.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_39 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-En el caso de los datos biométricos, ¿se encuentran bien regulados?</h2><div><p>R: Aunque hay avances, como las restricciones del RGPD en el tratamiento de datos biométricos, la regulación sigue siendo insuficiente en la protección contra usos indebidos. Se necesitan medidas más específicas para abordar riesgos como la vigilancia masiva y el mal uso en aplicaciones comerciales.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_40 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?</h2><div><p>R: La IA debe desarrollarse con datos fiables, auditorías independientes y mecanismos de corrección de sesgos. Además, es esencial fomentar la responsabilidad de los desarrolladores en la creación de herramientas que prioricen la precisión, la ética y las estructuras de gobernanza de los datos y los contenidos.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_41 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Qué acciones debe ejercitar la Administración española para poner en la práctica el reglamento europeo adaptándolo a la realidad de nuestro país?</h2><div><p>R: La Administración debe invertir en educación digital, dotar de poder y presupuestos a organismos que supervisen la implementación de la normativa (la AESIA y otros) y fomentar la colaboración público-privada. También ha de poner en práctica el sandbox de IA, previsto en el Reglamento IA y sobre el cual ya tenemos una reglamentación aprobada y vigente en España. También debe centrarse en sectores clave como la protección del consumidor y el uso ético de la IA en el ámbito laboral. La Carta de Derechos Digitales es un buen ejemplo de norma prospectiva e inspiradora de políticas públicas, pero todavía ha de ser desarrollada e implementada.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_42 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">La Administración debe invertir en educación digital, dotar de poder y presupuestos a organismos que supervisen la implementación de la normativa (la AESIA y otros) y fomentar la colaboración público-privada.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_43 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores</h2><div><p>R: Sí, pueden imponer sanciones a las empresas que no cumplan con la normativa y fomentar el acceso a herramientas de IA seguras y transparentes. Además, pueden desarrollar campañas de sensibilización para que los consumidores comprendan mejor los riesgos y beneficios.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_44 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">- ¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?</h2><div><p>R: En gran medida, sí, ya que las tecnologías avanzan a un ritmo que supera la capacidad legislativa. Esto deja a los ciudadanos en una situación de vulnerabilidad ante posibles abusos o fallos de las aplicaciones de IA.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_45 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cuál debe ser esa regulación a partir de ahora? ¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?</h2><div><p>La regulación debe centrarse en garantizar la transparencia algorítmica, la seguridad de los datos y la responsabilidad legal de los desarrolladores. Los ciudadanos más vulnerables están en mayor riesgo, ya que a menudo carecen de los recursos o conocimientos necesarios para defender sus derechos.</p></div></div>
				
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div>
<p>La entrada <a href="https://www.consumidordigital.org/dna-belen-arribas-presidenta-enatic-presidenta-ifcla-abogada-experta-en-regulacion-digital/">Dña. Belén Arribas. Presidenta ENATIC, Presidenta IFCLA, abogada experta en regulación digital</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>D. Ramón Miralles. Profesor de OBS Business School</title>
		<link>https://www.consumidordigital.org/d-ramon-miralles-profesor-de-obs-business-school/</link>
		
		<dc:creator><![CDATA[supervisor]]></dc:creator>
		<pubDate>Thu, 12 Dec 2024 17:47:50 +0000</pubDate>
				<category><![CDATA[Sin categoría]]></category>
		<guid isPermaLink="false">https://www.consumidordigital.org/d-ricard-martinez-profesor-permanente-laboral-departamento-de-derecho-constitucional-ciencia-politica-y-de-la-administracion-universitat-de-valencia-copy/</guid>

					<description><![CDATA[<p>La entrada <a href="https://www.consumidordigital.org/d-ramon-miralles-profesor-de-obs-business-school/">D. Ramón Miralles. Profesor de OBS Business School</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><div class="et_pb_section et_pb_section_3 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_6">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_6  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_heading et_pb_heading_9 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">D. Ramón Miralles.</h1></div>
			</div><div class="et_pb_module et_pb_heading et_pb_heading_10 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Profesor de OBS Business School.</h1></div>
			</div><div class="et_pb_with_border et_pb_module et_pb_heading et_pb_heading_11 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”</h1></div>
			</div>
			</div>
				
				
				
				
			</div><div class="et_pb_row et_pb_row_7">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_7  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_cta_46 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?</h2><div><p>En general, para tener confianza en una aplicación que use IA, en primer lugar debemos tener en cuenta quién nos propone usarla, quien nos la ofrece; por tanto, debemos valorar si es una empresa o entidad conocida, o no, y como en todo lo que tienen que ver con el uso de las TIC debemos desconfiar de lo desconocido, ya que la propia naturaleza de la red hace que no siempre tengamos la certeza de quién hay<br />detrás de una aplicación.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_47 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">para tener confianza en una aplicación que use IA, en primer lugar debemos tener en cuenta quién nos propone usarla, quien nos la ofrece; por tanto, debemos valorar si es una empresa o entidad conocida, o no, y como en todo lo que tienen que ver con el uso de las TIC debemos desconfiar de lo desconocido, ya que la propia naturaleza de la red hace que no siempre tengamos la certeza de quién hay detrás de una aplicación.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_48 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><div><p>Partiendo de la base de que es un sistema de IA en el que podemos confiar, debemos tener en cuenta cuales son las funcionalidades de la aplicación, es decir, el uso que le vamos a dar; en general, si se trata de una aplicación que nos resuelve dudas o cuestiones sobre temáticas concretas, por ejemplo relacionadas con la historia o cualquier otra materia tipica de estudio, nos podremos fiar de sus respuestas, ya que se trata de información que no requiere una actualización continuada. En cambio, si se trata de temas en los que la información cambia con una cierta periodicidad, debemos tener cuidado, puesto el entrenamiento de la IA no es continuo. Por ejemplo, si es una IA especializada en temas jurídicos, podemos encontrarnos con que tal vez no esté actualizada a una ley recientemente publicada.</p>
<p>Cuanto más compleja sea la pregunta o problema a resolver por parte de la IA, más medidas debemos adoptar para contrastar la información y menos debemos confiar de los resultados. Y dependiendo del uso que vayamos a dar a la respuesta será necesario ser más prudentes a la hora de usarla, en función de las consecuencias que pueda tener.</p>
<p>En general no podemos partir de la base de que la IA es infalible, puede equivocarse.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_49 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artiﬁcial europea?</h2><div><p>Es una regulación orientada a la seguridad de la IA, en el sentido de considerar que la IA es un producto cuyo consumo por parte de terceros, o por nosotros mismos, no está exento de riesgos. En función del riesgo, las exigencias de la norma son mayores, llegando incluso a la prohibición de ciertos usos cuando ese riesgo sea inaceptable.</p>
<p>Al tratarse de una norma de seguridad de producto, cubre todo el ciclo de vida de los sistemas de IA, desde su desarrollo a su distribución, importación, despliegue (uso por parte de empresas y entidades), su incorporación en otros productos (automóviles, electrodomésticos inteligentes, asistentes virtuales, etc.). Por tanto, a toda la cadena de agentes que están involucrados en los sistemas de IA se les aplica el Reglamento de IA.</p>
<p>El enfoque a riesgos y que la norma aplique a todo el ciclo de vida de los sistemas de IA hace que sea una norma adecuada en lo que respecta a que se puede confiar en los sistemas de IA, al menos con el actual estado de la IA en termino de tecnología.</p>
<p>También hay que mencionar que se trata de una regulación centrada en proteger a las personas ante potenciales vulneraciones de sus derechos y libertades fundamentales, como vienen siendo habitual en las normas de la UE.</p>
<p>Además, el hecho de que existan autoridades específicas de supervisión del cumplimento de Reglamento de IA y que se complemente con el Reglamento de protección de Datos Personales hace que a priori sea un marco jurídico aceptable.</p>
<p>Por supuesto, el hecho de que se hayan excluido ciertos ámbitos del Reglamento de IA hace que sea incompleta, ya que no aplica al uso militar o la seguridad nacional, entre otros, pero para aquello a lo que aplica es una regulación correcta.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_50 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Se ha quedado corta o ha ido demasiado lejos?</h2><div><p>Para el actual estado de las tecnologías de IA y los potenciales usos, es una norma equilibrada, regula lo que en estos momentos se puede regular sin perjuicio de que, probablemente, hacia el año 2028 deba ser revisada, una vez agotados todos los plazos para su aplicación.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_51 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?</h2><div><p>Por definición todas las tecnologías y todos los avances tecnológicos, junto con los evidentes beneficios que suponen, exponen a riesgos a las personas, algunas incluso ponen en riesgo la vida de las personas o pueden llegar a causar graves daños.</p>
<p>Pensemos en la industria automovilística, la aviación, la energía nuclear, la industria farmacéutica, etc.. Por supuesto, el actual grado de desarrollo de la IA puede suponer riesgos importantes, como la discriminación, el control social, la vigilancia indiscriminada de la personas, la manipulación o incluso poner en riesgo la democracia y los estados de derecho, pero precisamente, para eso está la regulación, para detectar esos riesgos e imponer límites.</p>
<p>No es una visión antagónica, son 2 caras de la misma moneda y debemos convivir con ello.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_52 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo debemos clasiﬁcar y deﬁnir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?</h2><div><p>Desde el punto de vista de los consumidores y los ciudadanos los principales riesgos tienen que ver con la manipulación de sus comportamientos o de las ideas de las personas; en un segundo lugar debemos prestar especial atención a las cuestiones relacionadas con la ciber-inseguridad, ya que la IA se usa también para cometer ciberdelitos con métodos cada vez más sofisticados y de más difícil detección.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_53 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se establece hasta dónde llega la ética de la IA?</h2><div><p>La ética no es la ley. Un texto legal es algo que queda fijado mediante un procedimiento legislativo, y tiene como resultado la concreción de un conjunto de derechos y obligaciones. Por tanto, como principio general el contenido de la ley y lo que pretende es conocido y es común para todos aquellos a los que aplica esa ley.</p>
<p>En cambio, hay muchas éticas diferentes. Aunque el concepto de ética esté relacionado con discernir lo que está bien y lo que está mal, no es lo mismo la ética que pueda tener una persona, una profesión mediante un código deontológico, una cultura o una sociedad, un grupo religioso o étnico, etc.</p>
<p>La ética relacionada con el Reglamento Europeo de la IA tiene en cuenta los principios y valores europeos, con una clara orientación humanística, por tanto, enfocada a proteger los derechos humanos. Pero no tiene por qué coincidir con el planteamiento ético que se pueda hacer en otras zona geo-políticas del mundo.</p>
<p>Por tanto, la ética de la IA llegará hasta donde los principios y valores de quien la desarrolle o despliegue la lleven.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_54 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">No existe una ética universal. En cambio la IA es una tecnología global, por tanto, no hay un único modo de establecer hasta donde debe llegar.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_55 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos ﬁar de todo lo que nos diga esta herramienta?</h2><div><p>No, en absoluto. Contiene sesgos negativos que se ha demostrado que amplifica y perpetúa, alucinaciones que provocan respuestas fuera de lugar, puede no estar actualizada o sencillamente se ha podido entrenar con información no adecuada; el hecho de que, hoy por hoy, no existe un control de calidad de la IA como producto, hace que no podamos fiarnos por completo. No se trata de dejar de usarla, se trata de aplicar un cierto sentido crítico a las respuestas que nos proporciona y contrastarlas.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_56 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">hoy por hoy, no existe un control de calidad de la IA como producto, hace que no podamos fiarnos por completo. No se trata de dejar de usarla, se trata de aplicar un cierto sentido crítico</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_57 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?</h2><div><p>Aplicando estándares de calidad al desarrollo y al entrenamiento de la IA, con códigos deontológicos y sometiendo a los sistemas de IA a supervisión humana. A la industria no le interesa que no confiemos en la IA, por tanto, son procesos de control que iremos viendo con el tiempo; ahora todavía estamos en la fase de deslumbramiento provocado por la magia de la IA, pero eso se nos pasará tarde o temprano.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_58 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">ahora todavía estamos en la fase de deslumbramiento provocado por la magia de la IA, pero eso se nos pasará tarde o temprano.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_59 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Qué acciones debe ejercitar la Administración española para poner en la práctica el reglamento europeo adaptándolo a la realidad de nuestro país?</h2><div><p>Dejando de lado las obligaciones que debe asumir a raíz del propio Reglamento de IA, la información y formación dirigida a la ciudadanía, sobre lo que es la IA y cómo usarla adecuadamente. Debería ser algo que planifique desde las etapas educativas más tempranas.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_60 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores</h2><div><p>Los poderes públicos ya tienen la obligación de proteger a los consumidores. Como ya he dicho, el Reglamento de IA es una norma de seguridad de producto, por tanto, las administraciones públicas deben garantizar su cumplimiento y, en su caso, actuar cuando no se cumpla con lo dispuesto por el mismo, en forma de sanciones a los infractores; de hecho, son medidas que ya están previstas en nuestro ordenamiento jurídico, por tanto, debe hacer lo que ya hace cuando controla la seguridad de otro tipo de productos, sean alimentarios, de medicamentos o de electrodomésticos.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_61 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?</h2><div><p>Creo que no. Creo que va algo por delante. En cualquier caso, las leyes deben regular realidades, el legislador no debe adivinar o elucubrar sobre situaciones que no son reales, así que en general siempre va por detrás de la realidad, pero en este caso, creo que el Reglamento de IA es lo suficientemente preventivo como para haberse avanzado al uso que se hace en estos momentos de la IA que pueda llegar a afectar a las personas.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_62 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cuál debe ser esa regulación a partir de ahora? ¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?</h2><div><p>Antes de hablar de una nueva regulación, creo que hay que esperar a ver cómo funciona la que acabamos de estrenar, y después de evaluar su impacto habrá que decidir si requiere ser corregida, que muy posiblemente será necesario.</p>
<p>Sin duda los ciudadanos más vulnerables seguirán siéndolo, seguramente más porque no tendrán acceso al uso de la IA o sus efectos positivos no les llegarán puesto que necesitan respuestas a otras necesidades. Al menos culturalmente y términos de oportunidades y de desarrollo personal van a ser más vulnerables, sin perjuicio de que ciertas iniciativas de la IA vayan dirigidas precisamente a afectar positivamente a las personas más vulnerables.</p></div></div>
				
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div></p>
<p>La entrada <a href="https://www.consumidordigital.org/d-ramon-miralles-profesor-de-obs-business-school/">D. Ramón Miralles. Profesor de OBS Business School</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>D. Ricard Martínez. Profesor Permanente Laboral Departamento de Derecho Constitucional, Ciencia Política y de la Administración. Universitat de València.</title>
		<link>https://www.consumidordigital.org/d-ricard-martinez-profesor-permanente-laboral-departamento-de-derecho-constitucional-ciencia-politica-y-de-la-administracion-universitat-de-valencia/</link>
		
		<dc:creator><![CDATA[supervisor]]></dc:creator>
		<pubDate>Mon, 25 Nov 2024 17:04:52 +0000</pubDate>
				<category><![CDATA[Sin categoría]]></category>
		<guid isPermaLink="false">https://www.consumidordigital.org/juan-carlos-hernandez-pena-profesor-de-derecho-administrativo-e-investigador-en-el-instituto-de-ciencia-de-datos-e-ia-datai-de-la-unversidad-de-navarra-copy/</guid>

					<description><![CDATA[<p>La entrada <a href="https://www.consumidordigital.org/d-ricard-martinez-profesor-permanente-laboral-departamento-de-derecho-constitucional-ciencia-politica-y-de-la-administracion-universitat-de-valencia/">D. Ricard Martínez. Profesor Permanente Laboral Departamento de Derecho Constitucional, Ciencia Política y de la Administración. Universitat de València.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><div class="et_pb_section et_pb_section_4 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_8">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_8  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_heading et_pb_heading_12 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">D. Ricard Martínez.</h1></div>
			</div><div class="et_pb_module et_pb_heading et_pb_heading_13 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Profesor Permanente Laboral Departamento de Derecho Constitucional, Ciencia Política y de la Administración. Universitat de València.</h1></div>
			</div><div class="et_pb_with_border et_pb_module et_pb_heading et_pb_heading_14 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”</h1></div>
			</div>
			</div>
				
				
				
				
			</div><div class="et_pb_row et_pb_row_9">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_9  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_cta_63 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA? </h2><div><p>Cuando nos enfrentamos a una aplicación de inteligencia artificial, curiosamente debemos fiarnos y debemos desconfiar exactamente de las mismas cosas de las que deberíamos confiar y así respecto de cualquier entorno digital tradicional. Es decir, supuestamente deberíamos entender que si una aplicación de inteligencia artificial ha sido desarrollada de acuerdo con buenas prácticas más allá del Reglamento de Inteligencia Artificial, es decir, que si hay una metodología de análisis de riesgos en su desarrollo; si se han preocupado de balancear adecuadamente la carga de datos; si han realizado pruebas suficientes y confiables; si antes de cualquier riesgo asociado a ámbitos como por ejemplo el sesgo y parcial o desde algún punto de vista, a veces también, y también la explicabilidad…. Pues deberíamos fiarnos de la aplicación de inteligencia artificial. Sin embargo, de lo que no deberíamos fiarnos y hemos tenido experiencias antes en el mundo de Internet, es de la proliferación de herramientas de inteligencia artificial que se ponen a disposición de cualesquiera usuarios en entornos, por decirlo así, no controlados, con intención de gamificación y cuyo objetivo es obtener cuantos más datos, mejor. Y estas inteligencias artificiales se abren a los usuarios precisamente para incentivar los procesos de aprendizaje. Y debo señalar que muchas de ellas son muy claras y explican, dentro de sus condiciones legales exactamente que estás usando y para qué. Por tanto, atención, porque lo primero que debemos verificar es cuáles son las condiciones y garantías que nos ofrece el proveedor de esa herramienta. No vaya a ser que nos llevemos una sorpresa.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_64 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Es correcta la regulación actual sobre la inteligencia artificial tras la nueva ley de Inteligencia Artificial europea? ¿Se ha quedado corta o se ha ido lejos?</h2><div><p>En principio debe entenderse que la legislación sobre inteligencia artificial de la Unión Europea tiene el foco puesto en dos grandes elementos. El primero tiene que ver con la garantía de la dignidad humana la garantía de los derechos fundamentales y la prevención de riesgos sistémicos para la democracia. Es decir, el legislador de la Unión Europea recuerda asuntos como Cambridge Analytica donde se manipularon elecciones.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_65 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">la garantía de los derechos fundamentales y la prevención de riesgos sistémicos para la democracia. Es decir, el legislador de la Unión Europea recuerda asuntos como Cambridge Analytica donde se manipularon elecciones.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_66 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><div><p>Pero también podría haber aprendido, porque después han sucedido cosas como las que hemos visto de niños que manipulan, inteligencia artificial para fabricar películas porno con las caras de sus amiguitas, lo cual es muy grave. Por tanto, lo que la Unión Europea entiende es que estas herramientas pueden ser potencialmente lesivas afectando a la dignidad humana, a la libre autodeterminación individual e incluso al propio sistema democrático, a nuestro sistema de libertades. Y tratan de prevenir ese riesgo. Por otra parte, la Ley de Inteligencia Artificial lo que hace es considerar algo que es obvio. La inteligencia artificial, en tanto que herramientas un producto y los productos se desarrollan conforme a unas pautas preestablecidas.</p>
<p>Esto ocurre con los medicamentos. Esto ocurre con los motores de un coche. Esto ocurre con prácticamente cualquier ámbito de producción industrial o tecnológica que pueda generar un riesgo para las personas. Por tanto, la segunda gran capa de la legislación es el desarrollo de estrategias de diseño responsable que es validado por organismos notificados. Desde este punto de vista, la aproximación es correcta y podría decirse que el no ha ido tan lejos como se suele decir. Porque, por ejemplo, las obligaciones de verificación por un organismo notificado sólo se aplican a las herramientas de inteligencia artificial de alto riesgo, mientras que para las de bajo riesgo o medio se establecen obligaciones de diseño y principios de transparencia. Y también se trata de acotar los grandes modelos basados en grandes volúmenes de datos, lo cual es lógico cuando hablamos de IA generativa en aspectos como el lenguaje, el texto, la voz o la imagen.</p>
<p>Por tanto, a mi juicio, se ha quedado en un término medio, en la medida en que ha sido una norma transaccional en la que el nivel de límites que quería imponer el Parlamento no ha prosperado al final y se ha tratado de generar un ecosistema viable para la industria europea. Ahora, ¿cuál es el problema? El problema es que el ecosistema europeo es el único en este plano. Es decir, que Estados Unidos sigue queriendo correr los mismos riesgos que ya sufrió con la legislación no aplicable a las redes sociale  y que ha acabado con más de 50 estados o 50 estados, presentando una demanda colectiva contra compañías como Meta o TikTok por vulnerar gravemente los derechos de los menores y causar graves daños mentales.</p>
<p>Así que la cuestión es. Estados Unidos sigue con su modelo innovador desregulado, pero los hechos no le dan la razón. Los hechos demuestran que cuando el desarrollo tecnológico desregulado es capaz de generar grandes empresas muy intensivas en resultados pero que no respetan las reglas, enteras generaciones de personas padecen en sus carnes graves vulneraciones de derechos fundamentales que en este caso pueden suponer graves adicciones y alteraciones del equilibrio mental. Así que, a mi juicio, Europa se sitúa en un punto intermedio, en principio razonable.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_67 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">Estados Unidos sigue queriendo correr los mismos riesgos que ya sufrió con la legislación no aplicable a las redes sociales  y que ha acabado con más de 50 estados o 50 estados, presentando una demanda colectiva contra compañías como Meta o TikTok por vulnerar gravemente los derechos de los menores y causar graves daños mentales.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_68 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-En muchos debates la IA se expone como un riesgo brutal para la sociedad. En otros sólo se le habla de las bondades. ¿Cuál es el punto óptimo de estas dos visiones?</h2><div><p>Creo, y esto lo he mantenido en público en múltiples artículos, que debemos entender que una sociedad tecnológicamente avanzada es una sociedad que genera riesgos y que el punto óptimo reside en ser capaces de gobernar el riesgo. Creo que para esta aproximación, y le voy a contar como suelo trabajar en el desarrollo de proyectos de investigación, hay, por decirlo así, una serie de hitos que son fundamentales y que nos defenderían ese punto medio de equilibrio que es razonable. La primera fase es la fase de creación, de investigación, de innovación. No estamos hablando de nada que vaya a ir al mercado, estamos hablando de la creatividad del ser humano, generando nuevos conceptos.</p>
<p>En ese territorio debemos dejar correr a la imaginación y para eso el Reglamento de Inteligencia Artificial establece que hay que respetar los principios de la ética de la investigación e incluso proponer los sandboxes regulatorios. Evidentemente, en el paso intermedio entre la concepción de la idea y la fase de desarrollo, lo primero que nos preguntamos es si esa tecnología va a vulnerar no solo los derechos fundamentales, sino cualquier regla que se encuentra en nuestro ordenamiento jurídico. Si la respuesta es afirmativa, no debemos seguir. Si la respuesta, en cambio, es negativa, es decir, la finalidad es legítima, es lícita y supuestamente no vamos a generar ningún tipo de riesgo para los derechos de las personas, el punto óptimo se sitúa en cómo ser capaces de producir un producto seguro y respetuoso con los derechos fundamentales. Por tanto, el foco no tiene que ser resultadista. Sino procedimental. En términos de gestionar el riesgo. ¿Por qué? Porque si tú gestionas el riesgo desde el diseño, desde el cumplimiento normativo, supuestamente deberías prever los potenciales daños y deberías tener planes de contingencia para controlar a la tecnología cuando esta genera riesgos que no son soportables o, digámoslo así, funcionan mal.</p>
<p>Precisamente por esto, la idea de Human Centric Approach como supervisión humana durante el proceso de diseño, pero también como metodología en términos de contingencia, pasando de un esquema basado en analítica de datos a un esquema en reglas o directamente al control humano, se erigen en modulaciones imprescindibles para controlar la tecnología y no ser controlados por ella, en el sentido de no poder hacer frente a riesgos sistémicos que pueda generar. La respuesta a cómo podemos decir, por decirlo así, clasificar los riesgos para el consumidor, entendiendo que el consumidor se halla más desprotegido, se encuentra el Reglamento de Inteligencia Artificial. La inteligencia artificial es la que nos dice que tenemos que establecer a partir de una serie de parámetros preestablecidos bajo qué condiciones una tecnología es de riesgo alto. Esto se basa bien en una categoría de desarrollos tecnológicos que están sujetos a regulación especial y que figuran en el Anexo 1, ya sea por su, por su carácter estratégico delicado o ya por su relación directa con intereses prevalentes como pueden ser la seguridad pública o los intereses nacionales, ya sea por su contenido.</p>
<p>Y entonces hay que ir al Anexo 3, donde tenemos una lista bastante interesante que nos indica bajo qué condiciones podemos calificar el riesgo de una tecnología. A partir de aquí, tampoco hay que despreciar algo que la norma ha calificado como formación en IA, en el artículo cuatro, o como algo que se ha regulado como transparencia. Es decir, este tipo de tecnologías, al igual que ocurriera antes con los entornos digitales, requiere la existencia de un consumidor consciente e informado. Este es nuestro gran fracaso en el contexto actual de evolución de la sociedad de la información. Basta ver con qué red social para ver la cantidad de energúmenos que ejercen su libertad de expresión, vulnerando derechos fundamentales, muchos de los cuales ni siquiera son conscientes de estar haciendo algo malo. Es decir, la cultura tecnológica, la adaptación del consumidor a los hábitos y requisitos que impone una sociedad tecnológicamente avanzada todavía no se ha producido.</p>
<p>Por tanto, la inversión en educación, la conciencia del consumidor y las estrategias orientadas a la culturización, a la alfabetización digital son aquí vitales, porque si no, el mayor riesgo para el consumidor de la IA no reside en la IA en sí misma, sino en su desconocimiento.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_69 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Los ciudadanos se encuentran ahora más desprotegidas ante ante lo que la IA supone e debe ser, debe ser respuesta o debe ser respondida en sentido negativo?</h2><div><p>Depende de qué ciudadanos ciudadanos hablemos y también de ante qué retos debamos responder. Y me explicaré. Si hablamos de la IA que se comercialice en la Unión Europea bajo el Reglamento General de Protección de Datos y bajo el Reglamento de Inteligencia Artificial, el ciudadano debería encontrarse muy protegido. Es decir, el ciudadano debería encontrarse muy protegido porque el factor de disuasión que tiene en la regulación de protección de datos multas desde el 4% de los ingresos anuales brutos de una compañía, cantidad que se extiende al 6% en el caso de la inteligencia artificial, junto con el conjunto de requisitos para el desarrollo de los tratamientos de datos o el desarrollo de una IA que establecen conjuntamente ambas normas, debería hacernos pensar que existen tanto modelos de desarrollo como modelos de verificación y control que van a proteger al ciudadano ante la IA.</p>
<p>Otra cosa es el hecho de que en un mundo global donde las compañías están ofreciendo en abierto herramientas de inteligencia artificial sin ningún tipo de supervisión y control y en el que los hechos demuestran que nuestras autoridades particularmente, y lo digo con respeto, judiciales, son incapaces de reaccionar y de acotar adecuadamente una tecnología. Y de hecho, los tiempos de respuesta se ralentizan ante una falta de cultura en relación con lo que esa tecnología supone y ante una incapacidad a lo largo de los años de aplicar las categorías tradicionales del derecho a fenómenos nuevos, nos abocan a un cierto grado de desprotección. Por eso, creo que sería conveniente verificar qué ha ocurrido en cuanto a la actuación del Ministerio Fiscal y de los jueces en relación con el caso que conocimos hace unos meses en el que unos niños pudieran utilizar libremente una tecnología de inteligencia artificial diseñada a generar películas fake con pornografía. Porque sí que es cierto que la Ley de Inteligencia Artificial se aplicó, entró en vigor después.</p>
<p>Pero no es menos cierto que la conducta era una conducta que generaba daños. No es menos cierto que la compañía permitía un tratamiento orientado a la Unión Europea. No es menos cierto que la generación incluso de pornografía infantil es un delito. Y no es menos cierto que tal vez las autoridades deberían haber buscado como por tierra, mar y aire se podía atacar a esa tecnología, no solo a sus usuarios y plantearse si existía alguna estrategia de acuerdo con la legislación vigente, en virtud de la cual, por ejemplo, se pudiera bloquear el acceso a la Unión Europea de ese servicio. Yo no es que tenga la respuesta. Tengo las preguntas. Pero mis preguntas a lo que conducen es a pensar de nuevo. ¿Y cuáles han sido las estrategias de formación de los operadores jurídicos para permitirles tener capacidad de respuesta rápida ante fenómenos emergentes? Porque en la mayor parte de los casos y en el futuro no podemos esperar tres o cuatro años a que el legislador de la Unión Europea dicte un reglamento y tenemos que jugar con las armas que nos ofrece el derecho a día de hoy.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_70 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se establece y hasta dónde llega la ética de la inteligencia artificial?</h2><div><p>Digamos que la ha ofrecido el propio Reglamento General de Inteligencia Artificial. En principio mi primera aproximación a esta materia es que la llamada ética de la IA, del mismo modo que operó en su día la ética de la protección de datos, los llamados fair principals, como estrategia de aproximación por parte de una compañía al desarrollo de una tecnología, desde luego, es materialmente valiosa, pero jurídicamente insuficiente. Es decir, la ética de la IA está muy bien cuando se aplica en entornos de laboratorio al desarrollo de productos que en principio y en esa fase no va a alcanzar el mercado. Sin embargo, la ética de la IA, de la mano del Reglamento de Inteligencia Artificial en muchos de sus aspectos, se ha convertido en normativa de la IA. Es decir, la ética como conjunto de valores, principios y directrices que una entidad puede aplicarse o puede obligarse a aplicar, no deja de ser un marco de referencia que no es normativo y que, por tanto, es disponible. O lo hago o no lo hago. La normatividad es la única que, dado el carácter imperativo y habida cuenta del nivel de las multas coactivo de la normativa, obliga a los sujetos a cumplir.</p>
<p>Por tanto, lo que se produce tras el Reglamento General de Inteligencia Artificial es un ecosistema donde gran parte de los principios éticos que desplegó el grupo de expertos de alto nivel en materia de inteligencia artificial de la Unión Europea se ha incorporado a los procesos de diseño a las metodologías de análisis de riesgos. Aspectos como la explicabilidad, como la exclusión del sesgo como la diversidad o la variedad, como la equidad, como los mecanismos de control humano o como la responsabilidad ante los daños causados, ya no son principios éticos, sino que son principios jurídicos vinculantes para quienes desarrollan la normativa. Ahora el papel que le queda a la ética es doble debe inspirar los procesos de diseño y debería ser un plus. Es decir, ahora con una norma aplicable, lo que deberían hacer las empresas y los investigadores es incorporar valores éticos adicionales que ofrezcan un plus respecto del mínimo común denominador que establece el derecho.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_71 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Nos podemos fiar de chat GPT?</h2><div><p>La respuesta corta es no. La respuesta larga es tal vez si hemos visto la integración de CoPilot con el navegador Edge, establece niveles de precisión. Por otra parte, si busca otras herramientas que no sean chat GPT, aunque pueden estar construidas sobre este tipo de herramientas o sobre el propio GPT, como por ejemplo la base de la IA llamada consensus, vereemos que consciente y voluntariamente lo que hacen es acotar el espacio de búsqueda para ser más autoritativo. Es decir, si usted pregunta sobre una cuestión controvertida o complicada desde el punto de vista jurídico y utiliza el chat GPT, puede encontrarse con que la fuente de chat GPT sea un blog de un despacho de abogados, sencillamente porque fueron muy hábiles a la hora de conseguir una adecuada indexación.</p>
<p>Pero esto no significa que el chat GPT le estará dando a usted una respuesta de calidad. Ahora, si esa misma herramienta se integra dentro de un ecosistema que solo incluya fuentes autoritativas, como jurisprudencia, legislación y doctrina publicada en revistas confiables, el resultado de dicha GPT mejorará significativamente, que es, por ejemplo, lo que hace Consensus, donde hace sus búsquedas en publicaciones científicas debidamente referenciadas. Ahora bien, aun así existe un margen de error y por tanto no debemos fiarnos completamente aquello que nos diga no ya GPT, sino cualquier herramienta de inteligencia artificial. Teniendo en cuenta además que algunas de ellas las estamos utilizando para búsquedas como si fueran un buscador, aunque no lo son, o para, por ejemplo, la generación o el desarrollo generativo de programación informática.</p>
<p>Claro, en esto en la programación informática digamos que podemos haber pasado de la programación a la antigua artesana, a la utilización de compiladores y ahora vamos a la programación casi automatizada a partir de prompts que se plantean a una herramienta de inteligencia artificial. Sin embargo, hemos olvidado la importancia que tiene el experto de calidad en la depuración del código. De hecho, puede que sean más funcionales estas herramientas para depurar código que para producirlo, pero eso es la inversión de un jurista y debemos entender hasta qué punto, por decirlo así, son tecnologías que todavía deben crecer para hacernos evolucionar. O para mejorar.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_72 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se debe desarrollar una IA para que no caiga en un pozo repleto de mentiras y muera de éxito?</h2><div><p>Por una parte, el universo de datos debe caracterizarse por su confiabilidad, por su diversidad, por su variabilidad y por su adecuación al fin que se persigue. Si no se hace así, es imposible. En segundo lugar, tenemos que jugar con que todo el proceso de diseño es un proceso que garantiza la confiabilidad de la aplicación, la reproducibilidad de sus resultados y la fiscalización de los mismos.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_73 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Qué acciones debe realizar la administración española en todo lo relativo a regular la IA? </h2><div><p>Me atrevo a señalarle una muy básica que ni siquiera se ha cumplido con el Reglamento General de Protección de Datos: Formar a todas sus plantillas. Si usted indaga, descubrirá que la mayor parte de plantillas de las administraciones públicas españolas no han recibido un curso básico de protección de datos, mucho menos un curso autoritativo y capacitado en materia de inteligencia artificial. Así que la primera tarea que debe citar la Administración es garantizar la formación del personal. Pocas iniciativas legislativas para adaptarlo a la realidad del país, es un reglamento de la Unión Europea. Por tanto, el margen de apreciación es muy limitado y las capacidades de la Administración para interaccionar con esta materia son muy bajas. Donde sí tiene la Administración un enorme potencial es en la fijación de las condiciones que va a imponer a los proveedores y las condiciones en las que va a licitar, ya sea la adjudicación de un servicio, ya sea el desarrollo de una solución propia. Creo que ahí es donde más poder tiene la Administración para operar como tractor, garantizando un desarrollo adecuado del reglamento de Inteligencia Artificial y una confiabilidad en las aplicaciones que se contraten.</p>
<p>Debemos entender que la protección de los consumidores. Me refiero a la actuación de los poderes públicos. Primero, puede ser gestionada desde la educación. Pero por otra parte, no debemos olvidar que los productos de inteligencia artificial van a entrar en un contexto de presencia de poli- reguladores de múltiples reguladores. Por un lado, vamos a tener a la Comisión Nacional de los Mercados y de la Competencia. Por otro lado, vamos a ordenar las competencias de los ministerios en materia de consumo de los sistemas de mediación de los consumidores cuando se les produce un daño. Y adicionalmente vamos a tener al regulador especializado en inteligencia artificial y al regulador especializado en protección de datos. Por lo tanto, la batería de armas de las que van a disponer los consumidores y la cantidad de entidades que además pueden actuar de oficio cuando constaten un problema en orden a proteger a esos consumidores es particularmente amplia.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_74 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿La regulación de la IA va por detrás de la realidad de lo que eran los ciudadanos en su día a día?</h2><div><p>Lo cierto es que toda regulación, por su propia naturaleza, va por detrás de la realidad. En muchas ocasiones, porque si surge con el motivo de disciplinar una realidad que es nueva. Aquí la cuestión que se debe afirmar es que la regulación de la IA se ha adaptado o ha pretendido acotar la realidad en su dimensión actual y que las lecciones aprendidas nos obligan a considerar que el sistema jurídico, el ordenamiento jurídico desde la perspectiva de su completud y desde la perspectiva de ofrecer criterios multidisciplinares en las distintas áreas del Derecho para acotar la realidad y los problemas que surgen, debe entenderse y debe aplicarse como un todo. Y sobre todo debemos capacitar a los operadores jurídicos. Por muy interesante que sean las condiciones de desarrollo de una inteligencia artificial. Y por mucho que veamos que es necesario adaptar mediante una directiva europea las condiciones para la exigencia de responsabilidad extracontractual, la responsabilidad contractual y extracontractual de nuestro Código Civil siguen vigentes y deben ser aplicadas hasta nueva orden a la inteligencia Artificial. Esa es la cuestión a plantearse respecto de la regulación.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_75 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?</h2><div><p>Ese precisamente el objetivo del Reglamento General de Inteligencia Artificial asegurarse de que los ciudadanos socialmente más vulnerados más vulnerables no se vean perjudicados y expuestos a los peligros de la IA. De ahí que sea aconsejable mirar las prohibiciones del artículo 5, donde precisamente la protección de las personas vulnerables frente a cualquier tipo de manipulación de su conducta o decisión, o mediante la generación de cualquier impacto negativo, basado precisamente en esta vulnerabilidad, se encuentra radicalmente prohibida. Del mismo modo, la protección de los ciudadanos socialmente más vulnerables aparece expresamente regulada en el Anexo 3. Cuando determinados sistemas de inteligencia artificial que pueden utilizarse en ámbitos muy sensibles como la justicia, la inmigración o la selección o la selección de personal, o la definición de políticas públicas particularmente relevantes, obliga a tener en cuenta estas situaciones de vulnerabilidad y a garantizar que no se les causa ningún daño o perjuicio. Por tanto, debemos entender que el Reglamento de Inteligencia Artificial ha tratado de cubrir este espacio.</p></div></div>
				
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div></p>
<p>La entrada <a href="https://www.consumidordigital.org/d-ricard-martinez-profesor-permanente-laboral-departamento-de-derecho-constitucional-ciencia-politica-y-de-la-administracion-universitat-de-valencia/">D. Ricard Martínez. Profesor Permanente Laboral Departamento de Derecho Constitucional, Ciencia Política y de la Administración. Universitat de València.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>D. Juan Carlos Hernández Peña, profesor de Derecho Administrativo e investigador en el Instituto de Ciencia de Datos e IA (DATAI) de la Unversidad de Navarra.</title>
		<link>https://www.consumidordigital.org/juan-carlos-hernandez-pena-profesor-de-derecho-administrativo-e-investigador-en-el-instituto-de-ciencia-de-datos-e-ia-datai-de-la-unversidad-de-navarra/</link>
		
		<dc:creator><![CDATA[supervisor]]></dc:creator>
		<pubDate>Mon, 25 Nov 2024 16:11:29 +0000</pubDate>
				<category><![CDATA[Sin categoría]]></category>
		<guid isPermaLink="false">https://www.consumidordigital.org/d-inigo-garcia-de-mata-profesor-del-master-en-blockchain-e-inversion-en-activos-digitales-del-ieb-copy/</guid>

					<description><![CDATA[<p>La entrada <a href="https://www.consumidordigital.org/juan-carlos-hernandez-pena-profesor-de-derecho-administrativo-e-investigador-en-el-instituto-de-ciencia-de-datos-e-ia-datai-de-la-unversidad-de-navarra/">D. Juan Carlos Hernández Peña, profesor de Derecho Administrativo e investigador en el Instituto de Ciencia de Datos e IA (DATAI) de la Unversidad de Navarra.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><div class="et_pb_section et_pb_section_5 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_10">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_10  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_heading et_pb_heading_15 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">D. Juan Carlos Hernández Peña.</h1></div>
			</div><div class="et_pb_module et_pb_heading et_pb_heading_16 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Profesor de Derecho Administrativo e investigador en el Instituto de Ciencia de Datos e IA (DATAI) de la Unversidad de Navarra.</h1></div>
			</div><div class="et_pb_with_border et_pb_module et_pb_heading et_pb_heading_17 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”</h1></div>
			</div>
			</div>
				
				
				
				
			</div><div class="et_pb_row et_pb_row_11">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_11  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_cta_76 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">1.	¿De qué debemos ﬁarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?</h2><div><p>La experiencia que hemos acumulado estos años de desarrollo nos llevan a pensar que para fiarnos de aplicaciones de IA, están deben ser transparentes, robustas y fiables.</p>
<p>Debemos ser proactivos y verificar que los sistemas nos ofrezcan información clara sobre su funcionamiento, así como sus límites y usos para los que fueron desarrollados.</p>
<p>Aunque aún está en desarrollo, podremos fiarnos más de aquellos sistemas que cumplan con las normas técnicas que se están e irán aprobando, y en el caso de los sistemas de riesgo alto de aquellos que cuenten con declaraciones de conformidad. Es más que previsible que también se desarrollen sellos éticos, vinculados a mecanismos de auditoria de sistemas y algoritmos, que otorgarán un plus de fiabilidad dado que no sólo exigirán que se cumplan con la normativa, sino que fijarán estándares éticos.</p>
<p>Evidentemente, si son sistemas que recopilen y traten datos personales, sólo podemos confiar en ellos si presentan una política de privacidad transparente y clara dónde nos indiquen con que fines se realiza el tratamiento y las medidas que utilizan para protegerlos.</p>
<p>En sentido contrario, todo sistema o aplicación que opera con opacidad, explicando deficientemente su funcionamiento, exigirá elevar nuestra cautela.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_77 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">todo sistema o aplicación que opera con opacidad, explicando deficientemente su funcionamiento, exigirá elevar nuestra cautela.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_78 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">2.	¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artiﬁcial europea? ¿Se ha quedado corta o ha ido demasiado lejos?</h2><div><p>La regulación europea de IA es pionera, y su enfoque se centra en promover un estándar elevado de los derechos fundamentales y la IA humanocéntrica, por lo que desde mi perspectiva es un acierto. La IA debe estar al servicio del ser humano, y no ser un medio para esclavizarlo, limitar su libertad o recortar derechos.</p>
<p>Ahora bien, al encontrarnos en un momento crítico del desarrollo y posicionamiento competitivo global, es necesario aquilatar la regulación para no ahogar la innovación. Desde esa perspectiva, el RIA es prudente porque valora que usos o aplicaciones de la IA no son admisibles o conformes con los valores europeos y las prohíbe. El resto las somete a mayores o menores obligaciones legales, según el nivel de riesgo. Es decir, aplica un enfoque basado en riesgos, e imponiendo cargas regulatorias.</p>
<p>Hay cuestiones, no obstante que no están del todo resueltas y generan inseguridad, pero deben irse clarificando con el desarrollo de normativa complementaria. Por ejemplo, en el caso de los sistemas prohibidos, se puede generar cierta confusión al entender que se entiende por emociones según el reglamento o qué debe entenderse por sistema que analiza emociones. Los reguladores nacionales y la propia Comisión, con la Oficina de IA a la cabeza, elaborarán listados que ejemplifiquen y clarifiquen cuestiones como éstas.</p>
<p>Si debe señalar que al tratarse de la primera regulación intensa de la IA se corre el riesgo de no acertar y perder competitividad frente a China o EE.UU. que han adoptado medidas regulatorias más laxas y menos restrictivas. No obstante, se espera que el RIA genere una suerte de efecto Bruselas y termine siendo el estándar global a semejanza de los ocurrido con el RGPD.</p>
<p>En todo caso, aunque haya aspectos mejorables o cuestiones a clarificar, debo señalar que priorizar los derechos de las personas es un acierto y un avance al que no debe renunciarse. No veo que haya necesariamente una colisión entre proteger a los ciudadanos y promover la competitividad europea de la IA. Si esta es la duda, quizás tendríamos que cambiar la pregunta ¿Queremos la IA a cualquier precio, incluso transando nuestros derechos?</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_79 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">3.	En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?</h2><div><p>La IA es una tecnología que está llamada a tener un impacto profundo en la sociedad. Nos puede ayudar a resolver los grandes retos a los que nos enfrentamos, pero su uso puede tener también un impacto negativo, no sólo en casos como el &#8216;predicting policing&#8217; o la videovigilancia. Todos hemos oído casos de uso de algoritmos de IA que discriminan o que han aprendido que pueden incrementar las ganancias de aerolíneas sentando automáticamente a familias que viajan con niños, obligando así a pagar más por los billetes o asientos. Es una tecnología muy permeable en todas las fases y procesos productivos y, por tanto, si no es ético o robusta nos impactará negativamente.</p>
<p>Creo que el enfoque adecuado parte por reconocer que es una buena tecnología, pero que aún no la conocemos del todo y estamos experimentando socialmente con ella.</p>
<p>Eso exige que la promovamos, pero que seamos cautos. En cierta medida que la &#8216;domestiquemos&#8217;. Para eso contamos con un arsenal regulatorio, técnico y ético que no es exclusivo de la IA. Ya estamos habituados a introducir riesgos en la sociedad y controlarlos con instrumentos legales. Pensemos en los medicamentos. Sus verdaderos riesgos sólo se materializan cuando están en el mercado e interactúan con miles de variables. Si no es seguro o tiene efectos adversos admisibles, se retira del mercado. Eso mismo se plantea para la IA con el Reglamento aprobado.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_80 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">4.	¿Cómo debemos clasiﬁcar y deﬁnir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?</h2><div><p>Creo que la propuesta de la UE acierta en este sentido y nos brinda una respuesta. Debemos clasificarlas en atención al impacto sobre los derechos fundamentales de las personas, su seguridad o salud. A mayor riesgo, mayores restricciones, mayores medidas de transparencia, más información para que los usuarios puedan tomar decisiones sobre el uso o no de una determinada aplicación o sistema de IA.</p>
<p>Como ya comentaba, los reguladores desarrollarán listados ejemplificativos para ayudarnos a entender el riesgo de los sistemas, así como aquellos que no son admisibles e intolerables desde la perspectiva de los valores europeos. La labor de alfabetización en materia de IA, debería ayudar a comprender no sólo los riesgos sino también los derechos de los consumidores.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_81 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">La labor de alfabetización en materia de IA, debería ayudar a comprender no sólo los riesgos sino también los derechos de los consumidores.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_82 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">5.	¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?</h2><div><p>Con la aprobación del Reglamento de IA y con todo el resto de paquetes normativos que está aprobando la UE, como la DSA o DMA, pienso que es todo lo contrario. Ahora tenemos más derechos. Por ejemplo, tenemos derecho a exigir transparencia, a que nos informen sobre la lógica de los algoritmos, que nos expliquen si se toman medidas automatizadas que afecten nuestros derechos. Todo esto se ha construido con el marco normativo que ha promovido la UE en los últimos años.</p>
<p>Lo que si es cierto es la normativa puede estar sometida a una cierta obsolescencia debido a la rapidez de los avances tecnológicos. Esto puede generar ámbitos de afectación de derechos que quizás no estén cubiertos adecuadamente. De ahí la importancia de que se cuenten con normativa resiliente e incluso que, en casos dónde previsiblemente se generarán riesgos inadmisibles, el RIA no se aplique como un instrumento reactivo sino que se apliquen los mecanismos que permiten respuestas preventivas.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_83 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">6.	Usted elabora auditorías de modelos de IA. ¿Cuáles son las fortalezas, riesgos y amenazas que está vislumbrando en esos estudios pormenorizados?</h2><div><p>Las auditorías de IA son esenciales para identificar posibles sesgos, o errores en los modelos. Para valorar la opacidad o explicabilidad de los modelos, así como su ajuste a la normativa y los derechos fundamentales. En definitiva para garantizar que sean trasparentes y robustos, especialmente para el caso de aquellos sistemas que pueden tener un impacto directo sobre el acceso a bienes o servicios esenciales, o que afecten directamente derechos fundamentales como el empleo o la educación.</p>
<p>Como fortalezas destacaría que aunque nos estamos encontrando con modelos mejorables u opacos, las personas están aplicando salvaguardias y son prudentes en su uso. Existe preocupación, tanto en desarrolladores como implementadores, de que los modelos se ajusten y anticipen a la normativa europea, aunque las dudas de cómo se aplicará o cómo deben entenderse muchas de las previsiones del Reglamento son habituales.</p>
<p>Quizás los principales riesgos y amenazas se centran en el diseño adecuado y robusto. Existe un principio que se repite como mantra y es fundamental en el entrenamiento de modelos: Garbage In, Garbage Out. Si los datos de entrenamiento no tienen calidad adecuada, los output del modelo serán deficientes. Esto suele explicar la presencia de sesgos.</p>
<p>También hay riesgo con el tratamiento de datos personales. Con cumplir los elevados estándares que establece el RGPD. Muchos cientificos de datos no comprenden adecuadamente principios como la privacidad o la protección de datos desde el diseño o el principio de minimización, y realizan tratamientos extensivos para entrenar modelos que no son realmente necesarios.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_84 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">7.	¿Cómo se establece hasta dónde llega la ética de la IA?</h2><div><p>No entiendo del todo la pregunta, pero respondo según lo que intuyo &#8211; aunque puede ser errado mi enfoque.</p>
<p>Creo que debemos diferenciar por una parte los mandatos y prescripciones legales, de las directrices éticas. El RIA no obstante, se diseña teniendo como base una serie de principios éticos recogidos en las Directrices É)cas para una IA Fiable. Entre ellos, el respecto a la autonomía humana, de ahí la prohibición de sistemas que manipules; la prevención del daño, lo que supone que el RIA se base en un enfoque basado en riesgo<br />y prohíba sistemas que pueden causar daños inadmisibles; la equidad y la explicabilidad, que se traducen en mandatos de transparencia, robustez, etc.</p>
<p>Los principios éticos, no obstante, son mandatos de muy alto nivel. Es decir, que nos brindan enunciados generales que deben interpretarse en atención a las circunstancias concretas, por lo que genera problemas para los ciudadanos y las organizaciones. De ahí la importancia de que sean operativizados, tanto a través de las normas jurídicas (el RIA y su norma de desarrollo), y las normas técnicas, que establecen criterios de naturaleza técnicas que aterrizan estos principios. Por ejemplo, ¿Qué es un sistema de IA robusto? ¿Qué métricas debemos considerar para valorar si un LLM no está sesgado? La respuesta parte de aplicar esos principios de alto nivel, pero la norma jurídica y las normas técnicas completan el dibujo final.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_85 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">debemos diferenciar por una parte los mandatos y prescripciones legales, de las directrices éticas.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_86 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">8.	Usted ha comentado en varias ocasiones en sus intervenciones que uno de los puntos sobre los que hay que incidir es la investigación básica que, en ocasiones, “se tiene algo descuidada”. ¿Podría aclarar estos términos?</h2><div><p>La investigación básica es fundamental para los avances de la actividad cientifica en general. La IA, ciencia con décadas de desarrollo, no escapa de esa dinámica.</p>
<p>Muchos de los avances que vemos y veremos estarán impulsados con ánimo de llegar al mercado. De monetizarse, cuestión legítima. Por ejemplo, las capacidades de los modelos de IA Generativa se incrementarán porque los desarrolladores quieren llevar al mercado nuevas funcionalidades que les permitan incrementar la cuenta de resultados.</p>
<p>No obstante, hay cuestiones cómo la explicabilidad de los modelos de caja negra para las que quizás no hay un incentivo económico tan claro por parte de las empresas. También puede pensarse en el desarrollo de algoritmos de IA verdes (que consuman menos energía). Avances de este tipo exigen muchos esfuerzos que no se verán monetizados en el corto plazo, pero que asegurarán una IA fiable en el futuro. Aquí, es necesario contar con la financiación pública, las universidades y centros de investigación que pueden dedicar recursos al desarrollo de aplicaciones no comerciales. La investigación básica ayudará a entender mejor los límites y capacidades de la IA, a profundizar en sus riesgos o diseñar y desarrollar nuevas medidas para hacerla robusta y segura. En definitiva, contribuiría a garantizar una IA fiable, ética y sostenible.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_87 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">9.	Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos ﬁar de todo lo que nos diga esta herramienta?</h2><div><p>ChatGPT es lo que se conoce como un gran modelo de lenguaje natural o LLM. Se basan en una arquitectura de deep learning desarrollada por Google, que denominaron &#8216;Transformer&#8217;. Aprenden del conjunto de datos con el que se entrenó, entienden su distribución estadistica y nos dan una respuesta razonable imitando lo que han &#8216;leído&#8217;.</p>
<p>Tienen la ventaja de permitirnos interactuar con ellos de forma simple y ﬂuida utilizando lenguaje natural, y su respuesta también es conversacional por lo que se suple la curva de aprendizaje técnica que exige otros modelos de IA, donde hay que saber código e interpretarlo.</p>
<p>Si consideramos, además, que tienen una capacidad muy potente para interpretar texto o imágenes y darnos respuestas coherentes y razonables; que pueden gestionar mucha mayor cantidad de información en escaso tiempo; y que son muy eficientes para determinadas labores dónde el aporte creativo es limitado o se trata, sin más, de tareas repetitivas. No resulta sorprendente que se estén adoptando con una rapidez sin precedente, especialmente entre los jovenes.</p>
<p>Sin embargo, siguen siendo inteligencias artificiales y siguen respondiendo a las mismas limitaciones del resto de sistemas de IA. Por tanto, si en el universo de datos de entrenamiento hay un porcentaje de datos de poca calidad, es probable que nos encontremos con resultados cuestionables o sesgados. Es decir, Garbage In Garbage Out. Esto explica que en ocasiones los resultados sean inadecuados, inexactos o sesgados. De hecho en las condiciones de uso de ChatGPT la propia OpenAI avisa de estos riesgos inherentes a las distintas versiones del modelo.</p>
<p>Por otra parte, estos modelos tienen riesgos específicos. No son deterministas, por lo que sus respuestas no son únicas. Si hacemos la misma pregunta varias veces, en cada ocasión nos dará una versión diferente. Tampoco saben decir que no, por lo que si no tiene datos de suficiente calidad para dar la respuesta puede darnos un output o salida aproximada interpretando erróneamente la información. Por eso es frecuente escuchar casos en los que estos modelos &#8216;alucinan&#8217;, bien interpretando equivocadamente la información o bien directamente inventándola. Son muy conocidos los casos en los que, por ejemplo, se ha inventado referencias bibliográficas o incluso sentencias judiciales.</p>
<p>Mi consejo para los jóvenes es el mismo que doy respecto a la información en internet. Que sean escépticos y ejerciten su espíritu crítico, contrastando el resultado con otras fuentes que sean fiables. Esto sin ir más lejos, es a lo que se refiere el RIA cuando aconseja el &#8216;human in the loop&#8217;, es decir, la mediación humana para valorar críticamente los resultados de un modelo de IA y decidir en atención a su competencia y capacidad.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_88 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">10.	¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?</h2><div><p>Creo que en general recogiendo lo que hemos comentado. Incorporando los principios éticos desde el diseño. De ellos considerando fundamental la perspectiva humanocéntrica. Que se diseñen modelos que potencien y ayuden a las personas a desarrollarse, a mejorar sus capacidades. Una IA por y para las personas.</p>
<p>También la transparencia y la supervisión son claves para el desarrollo sostenible de la IA responsable. Los procesos de auditorías, también ya comentados, pueden contribuir a asegurar una IA segura y ética.</p></div></div>
				
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div></p>
<p>La entrada <a href="https://www.consumidordigital.org/juan-carlos-hernandez-pena-profesor-de-derecho-administrativo-e-investigador-en-el-instituto-de-ciencia-de-datos-e-ia-datai-de-la-unversidad-de-navarra/">D. Juan Carlos Hernández Peña, profesor de Derecho Administrativo e investigador en el Instituto de Ciencia de Datos e IA (DATAI) de la Unversidad de Navarra.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>D. Iñigo García de Mata, profesor del Máster en Blockchain e inversión en activos digitales del IEB.</title>
		<link>https://www.consumidordigital.org/d-inigo-garcia-de-mata-profesor-del-master-en-blockchain-e-inversion-en-activos-digitales-del-ieb/</link>
		
		<dc:creator><![CDATA[supervisor]]></dc:creator>
		<pubDate>Mon, 25 Nov 2024 15:48:43 +0000</pubDate>
				<category><![CDATA[Sin categoría]]></category>
		<guid isPermaLink="false">https://www.consumidordigital.org/d-francisco-perez-bes-socio-en-el-area-de-derecho-digital-en-ecix-y-ex-secretario-general-de-incibe-copy/</guid>

					<description><![CDATA[<p>La entrada <a href="https://www.consumidordigital.org/d-inigo-garcia-de-mata-profesor-del-master-en-blockchain-e-inversion-en-activos-digitales-del-ieb/">D. Iñigo García de Mata, profesor del Máster en Blockchain e inversión en activos digitales del IEB.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><div class="et_pb_section et_pb_section_6 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_12">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_12  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_heading et_pb_heading_18 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">D. Iñigo García de Mata.</h1></div>
			</div><div class="et_pb_module et_pb_heading et_pb_heading_19 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Profesor del Máster en Blockchain e inversión en activos digitales del IEB</h1></div>
			</div><div class="et_pb_with_border et_pb_module et_pb_heading et_pb_heading_20 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”</h1></div>
			</div>
			</div>
				
				
				
				
			</div><div class="et_pb_row et_pb_row_13">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_13  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_cta_89 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA? </h2><div><p>Cuando hablamos de aplicaciones de IA, el objetivo principal que perseguimos habitualmente es facilitarnos el trabajo especifico. Que quiere decir esto, pues si nos fijamos en el uso habitual de las aplicaciones como ChatGPT, dall-E y similares, nos acercan la capacidad de un traductor, un dibujante, un programador,… y con el paso del tiempo, este rol que asume la IA se va perfeccionando, pero siempre debemos someterlo a un juicio de calidad. Por ello, podemos fiarnos en reglas generales para un uso que no necesitaría de un perfil de alta especialización, pero cuando si lo requiera, debemos buscar un contrapunto de un especialista, que necesitará menos esfuerzo para lograr el mismo objetivo.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_90 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">ChatGPT, dall-E y similares, podemos fiarnos en reglas generales para un uso que no necesitaría de un perfil de alta especialización</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_91 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea?</h2><div><p>Aunque a priori podemos pensar que la regulación ralentiza la innovación, lo cierto es que poner una serie de reglas del juego para poder crear tecnología que sea responsable y justa para todos, lo considero de vital importancia. En la nueva regulación Europea, se persiguen tres objetivos, que aunque pueden necesitar diversas iteraciones para que su aplicación practica sea la mejor posible, son un buen punto de partida:</p>
<ul>
<li>Garantizar la seguridad y los derechos fundamentales de los ciudadanos</li>
<li>Fomentar la innovación y la competencia en el mercado de la IA.</li>
<li>Promover la transparencia de la IA.</li>
</ul>
<p>Creo que el foco en la transparencia y la seguridad son cruciales para una IA accesible para todos, aunque creo que sería importante tener un margen para utilizar IAs de forma completamente libre para investigar su comportamiento y funcionamiento.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_92 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Se ha quedado corta o ha ido demasiado lejos?</h2><div><p>De momento, se ha quedado corta, pero porque la tecnología avanza más rápido que la regulación, por lo que es probable que siempre se quede detrás. Pero es importante que intente cubrir todos los frentes posibles, sin perder la flexibilidad de modificarse y adaptarse a las necesidades del mercado.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_93 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?</h2><div><p>Soy partidario de que la tecnología es neutral; somos nosotros quienes debemos usarla correctamente. Una buena regulación puede impedir que demos herramientas peligrosas a los usuarios. Así como existen diferentes tipos de carnets para conducir, deberíamos tener requisitos específicos para trabajar con ciertas aplicaciones de IA. Es crucial llevar la tecnología al límite para prevenir usos maliciosos, porque si no, otros lo harán y nos encontrarán desprevenidos. </p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_94 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">existen diferentes tipos de carnets para conducir, deberíamos tener requisitos específicos para trabajar con ciertas aplicaciones de IA.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_95 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?</h2><div><p>En mi conocimiento, la IA tienes dos grandes grupos de riesgo para los usuarios, uno, donde se provee al usuario de una herramienta que le acerca el conocimiento muy avanzado en gran cantidad de materias, reduciendo la barrera de entrada que pueden tener ciertas acciones de riesgo, y, por otro lado, esta el riesgo que puede entrañar interactuar con ciertas IAs que pueden generar contenido inapropiado para el usuario (por ejemplo, un autodiagnóstico medico mediante chatGPT). </p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_96 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">el riesgo que puede entrañar interactuar con ciertas IAs que pueden generar contenido inapropiado para el usuario (por ejemplo, un autodiagnóstico medico mediante chatGPT). </h2></div>
				
			</div><div class="et_pb_module et_pb_cta_97 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?</h2><div><p>Yo creo que no, cada vez los usuarios van conociendo como funcionan los modelos, y la fascinación inicial esta dando paso a un uso cada vez más operativo y que permite a los usuarios explorar y entender las limitaciones existentes.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_98 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se establece hasta dónde llega la ética de la IA?</h2><div><p>Yo creo que la ética de la IA la debe elegir cada creador, sabiendo que según las limitaciones éticas que imponga a su modelo, podrá ofrecerlo a unos usuarios u otros, siendo el caso más extremo únicamente interesante para la investigación.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_99 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?</h2><div><p>De momento, no, y creo que para poder fiarnos al 100%, aún le queda bastante recorrido, pero creo que podemos confiar en que los resultados que arroja pueden ser de gran utilidad y ahorrarnos mucho trabajo, aunque mi experiencia es que todavía se necesita casi el mismo esfuerzo para conseguir el resultado final esperado que cuando no teníamos chatGPT.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_100 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header"> -¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?</h2><div><p>Es una pregunta complicada, pero lo cierto es que, a día de hoy, aunque se ha colado en nuestro día a día en tareas cotidianas, y ha generado grandes mejoras en muchos procesos, la mayoría de estos son para el usuario final, aún se esta explorando su uso a nivel corporativo, y será esa via de actuación la que determinará los próximos años de la evolución de la IA.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_101 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores?</h2><div><p>Un mecanismo dual basado en formación y prevención, puede ser una forma muy interesante mediante la cual, las administraciones públicas pueden crear una barrera que proteja al ciudadano, sin mermar en exceso el acceso y la exploración de posibilidades de la IA, lo que seguro será un generador de empleo en los próximos años.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_102 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?</h2><div><p>Yo creo que si, pero es cierto que a medida que avanza la IA, el avance es más sutil, aunque más interesante, por eso, aunque siempre estará desfasada, ese desfase es aceptable y saludable.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_103 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cuál debe ser esa regulación a partir de ahora? ¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?</h2><div><p>La regulación debe partir de la formación, el tener el conocimiento necesario para discernir los resultados de cualquier IA, es clave para utilizarla de forma correcta. Esto hace que aquellas personas que por su situación han tenido una formación más escasa, se encuentren en mayo riesgo de caer en un mal uso de la IA.</p></div></div>
				
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div></p>
<p>La entrada <a href="https://www.consumidordigital.org/d-inigo-garcia-de-mata-profesor-del-master-en-blockchain-e-inversion-en-activos-digitales-del-ieb/">D. Iñigo García de Mata, profesor del Máster en Blockchain e inversión en activos digitales del IEB.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>D. Francisco Pérez Bes. Socio en el área de Derecho Digital en Ecix y ex-secretario general de Incibe.</title>
		<link>https://www.consumidordigital.org/d-francisco-perez-bes-socio-en-el-area-de-derecho-digital-en-ecix-y-ex-secretario-general-de-incibe/</link>
		
		<dc:creator><![CDATA[supervisor]]></dc:creator>
		<pubDate>Mon, 25 Nov 2024 15:26:51 +0000</pubDate>
				<category><![CDATA[Sin categoría]]></category>
		<guid isPermaLink="false">https://www.consumidordigital.org/d-esteban-almirall-profesor-titular-del-departamento-de-operaciones-innovacion-y-data-sciences-en-esade-copy/</guid>

					<description><![CDATA[<p>La entrada <a href="https://www.consumidordigital.org/d-francisco-perez-bes-socio-en-el-area-de-derecho-digital-en-ecix-y-ex-secretario-general-de-incibe/">D. Francisco Pérez Bes. Socio en el área de Derecho Digital en Ecix y ex-secretario general de Incibe.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><div class="et_pb_section et_pb_section_7 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_14">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_14  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_heading et_pb_heading_21 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">D. Francisco Pérez Bes.</h1></div>
			</div><div class="et_pb_module et_pb_heading et_pb_heading_22 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Socio en el área de Derecho Digital en Ecix y ex-secretario general de Incibe.</h1></div>
			</div><div class="et_pb_with_border et_pb_module et_pb_heading et_pb_heading_23 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”</h1></div>
			</div>
			</div>
				
				
				
				
			</div><div class="et_pb_row et_pb_row_15">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_15  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_cta_104 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo pueden las empresas cumplir de forma segura con la regulación en IA teniendo en cuenta los obstáculos o trámites normativos que ello conlleva para su día a día y responsabilidad legal?</h2><div><p>Quizás no deba verse el cumplimiento normativo como un problema, sino como una oportunidad de mejorar la protección de los derechos de los clientes y mostrarse en el mercado como una entidad responsable y diligente, que gestiona bien sus riesgos de cumplimiento. Para ello, deben planificarse bien las obligaciones que la ley exige cumplir, y trabajar (con recursos internos o con apoyo externo) en la implementación de las medidas necesarias. Bien es cierto que eso requiere una inversión, de tiempo y -en ocasiones- de dinero, que debe planificarse adecuadamente y con tiempo, o asumir el riesgo de sanciones, que resulta más costoso.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_105 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Está nuestro Código Penal preparado para castigar todos los ciberdelitos?</h2><div><p>El Código Penal es un documento muy completo con respecto a las nuevas tipologías delictivas, aunque este tipo de actuaciones van evolucionando, lo que requiere que la normativa se actualice a menudo. En cualquier caso, en la mayoría de las ocasiones la dificultad está más en la investigación y persecución que en el castigo penal, de ahí que se requieren más medios para las fuerzas y cuerpos de seguridad del estado.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_106 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">en la mayoría de las ocasiones la dificultad está más en la investigación y persecución que en el castigo penal, de ahí que se requieren más medios para las fuerzas y cuerpos de seguridad del estado.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_107 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-Usted publicó un libro en 2020 llamado ‘Cuentos de Ciberseguridad’ para enseñar a familias y a niños los riesgos de Internet. ¿Está la sociedad, en general, y la infancia, particular, demasiado expuesta a riesgos como los derivados de la IA?</h2><div><p>Así lo creo, y por ello en 2025 publicaré otro libro titulado “cuentos de IA” donde poder explicar a padres e hijos estos nuevos riesgos que trae consigo esta tecnología. Esto es importante, ya que estas nuevas generaciones van a interactuar con la IA de manera natural, lo que dificulta aún más la labor de concienciación, que todos sabemos imprescindible, pero que es muchas ocasiones es complicada. Por poner un ejemplo, gracias a los cuentos he podido explicarles riesgos de ciberseguridad a personas con discapacidad intelectual, que es España son casi unos 300.000 y que son ciudadanos con un alto nivel de conectividad, pero que nadie sabe cómo contarles los riesgos tecnológicos.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_108 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-En el sector se comenta habitualmente que la IA diferenciará a los abogados listos de los tontos. ¿Está de acuerdo?</h2><div><p>Es una manera de representar una más que probable realidad, en la que aquellos abogados que sepan utilizar de manera eficiente la IA lograrán destacar sobre los que no lo hagan.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_109 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?</h2><div><p>De entrada hay que ser conscientes de que estamos ante un asistente que nos ayuda a realizar nuestra tarea, pero que puede cometer errores o no interpretar nuestras consultas de manera correcta, por lo que no debemos olvidar nuestra espíritu crítico y nuestra supervisión de los datos obtenidos, responsabilizándonos del uso que hagamos de aquellos.<br />También hay que estar atentos a si la app utiliza IA generativa, ya que las respuestas que nos ofrezca pueden tener sesgos en su programación o causadas por un entrenamiento defectuoso o incompleto.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_110 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">hay que estar atentos a si la app utiliza IA generativa, ya que las respuestas que nos ofrezca pueden tener sesgos en su programación o causadas por un entrenamiento defectuoso o incompleto.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_111 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea?¿Se ha quedado corta o ha ido demasiado lejos?</h2><div><p>En el fondo, lo que la ley pretende regular es la protección de los derechos de las personas, y no la tecnología en sí, que sería imposible regular de manera eficaz. Con esta idea, el legislador europeo plantea una regulación estructurada en distintos niveles de riesgo para los derechos fundamentales, lo que parece una buena aproximación si queremos construir una IA sostenible.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_112 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?</h2><div><p>Toda tecnología trae consigo ventajas e inconvenientes. Hay que sabe aprovechar las ventajas y evitar o minimizar los riesgos que la acompañan. Y, para ello, primero hay que identificarlos, medirlos y sabe cómo mitigarlos. Creo que la mayoría todavía está en esa fase.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_113 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?</h2><div><p>En riesgos económicos, físicos y socio-culturales.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_114 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?</h2><div><p>Hay que partir del principio de neutralidad tecnológica, en el sentido de que la IA no es buena o mala, sino que dependerá del uso de se le dé. Pero con respesto al uso que hacen las empresas de ella, sí que se ha detectado un incremento de la desprotección de los ciudadanos, por ejemplo en temas de predicción o perfilado, que la normativa pretende reconducir.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_115 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">se ha detectado un incremento de la desprotección de los ciudadanos, por ejemplo en temas de predicción o perfilado, que la normativa pretende reconducir.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_116 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se establece hasta dónde llega la ética de la IA?</h2><div><p>La ética parte de que la IA permite hacer muchas cosas, y debemos decidir cuáles de ellas no deben hacerse. En este sentido, la ética está llamada a convertirse en un aspecto esencial de cualquier desarrollo e implementación de IA, especialmente en territorio europeo, donde apostamos por una IA ética y fiable.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_117 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?</h2><div><p>De momento no, ya que todavía está en una fase incipiente en lo que tiene que ver con la interactuación humano-máquina. Pero el ritmo de evolución sí hace prever un horizonte en el que la fiabilidad de la IA sea muy relevante.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_118 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?</h2><div><p>La normativa hace bien en distribuir la responsabilidad legal entre los intervinientes de las distintas fases de implementación de la IA, de manera que dependiendo del rol que cada uno juegue en el proceso, tendrá una serie de responsabilidades legales específicas. Esto garantiza que cada interviniente se encargue de dar cumplimiento a sus deberes y, por tanto, garantizar que el desarrollo e implementación de una IA en concreto cumple con la norma.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_119 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Qué acciones debe ejercitar la Administración española para poner en la práctica el reglamento europeo adaptándolo a la realidad de nuestro país?</h2><div><p>España ha avanzado rápido con la creación de la Agencia Española de Supervisión de la IA (AESIA) desde donde se coordinará la implementación de esta tecnología tanto en el sector privado como en el público. En este sentido, se esperan guías orientativas y criterios interpretativos que ayuden al sector a llevar a cabo una interpretación correcta de la norma de conformidad con el criterio del regulador español.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_120 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores</h2><div><p>Sí. La normativa faculta y habilita al regulador (AESIA), así como a otras entidades que puedan resultar afectadas (AEPD; CNMV, CNMC, Consumo…), a iniciar procesos de investigación y sanción a aquellas empresas que no den cumplimiento adecuado a los objetivos de la norma. No obstante, está por ver cómo se desarrollará este tipo de procesos.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_121 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?</h2><div><p>La regulación siempre va por detrás de la realidad porque sólo aparece cuando se identifica una necesidad de poner normas. En este caso, todavía se esperan muchas normas a través de las cuales se pueda aplicar esta tecnología de manera útil y eficaz. Pero como toda disrupción social, las normas irán poco a poco apareciendo (especialmente en áreas más sesnsibles como pueden ser las de protección del consumidor, protección de datos personales y derechos fundamentales, y del mercado), y este caso no es una excepción.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_122 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">-¿Cuál debe ser esa regulación a partir de ahora? ¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?</h2><div><p>Es importante que desde los poderes públicos y privados se diseñe una estrategia clara para poder dar una protección debida a los grupos más vulnerables. En el caso de la IA, el impacto que puede tener en estos colectivos es muy relevante, y no debemos permitir que se vean expuestos a prácticas que puedan causarles daños de ninguna clase. Y, en este aspecto, de nuevo la sensibilización, concienciación y formación van a ser elementos clave para poder lograr un desarrollo sano de esta tecnología con respecto a este tipo de perfiles.</p></div></div>
				
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div></p>
<p>La entrada <a href="https://www.consumidordigital.org/d-francisco-perez-bes-socio-en-el-area-de-derecho-digital-en-ecix-y-ex-secretario-general-de-incibe/">D. Francisco Pérez Bes. Socio en el área de Derecho Digital en Ecix y ex-secretario general de Incibe.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>D. Esteban Almirall. Profesor titular del departamento de Operaciones, Innovación y Data Sciences en Esade.</title>
		<link>https://www.consumidordigital.org/d-esteban-almirall-profesor-titular-del-departamento-de-operaciones-innovacion-y-data-sciences-en-esade/</link>
		
		<dc:creator><![CDATA[supervisor]]></dc:creator>
		<pubDate>Wed, 20 Nov 2024 17:15:45 +0000</pubDate>
				<category><![CDATA[Sin categoría]]></category>
		<guid isPermaLink="false">https://www.consumidordigital.org/borja-adsuara-varela-experto-en-derecho-y-estrategia-digital-copy/</guid>

					<description><![CDATA[<p>La entrada <a href="https://www.consumidordigital.org/d-esteban-almirall-profesor-titular-del-departamento-de-operaciones-innovacion-y-data-sciences-en-esade/">D. Esteban Almirall. Profesor titular del departamento de Operaciones, Innovación y Data Sciences en Esade.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<div class="et_pb_section et_pb_section_8 et_section_regular" >
				
				
				
				
				
				
				<div class="et_pb_row et_pb_row_16">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_16  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_heading et_pb_heading_24 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">D. Esteban Almirall.</h1></div>
			</div><div class="et_pb_module et_pb_heading et_pb_heading_25 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Profesor titular del departamento de Operaciones, Innovación y Data Sciences en Esade.</h1></div>
			</div><div class="et_pb_with_border et_pb_module et_pb_heading et_pb_heading_26 et_pb_bg_layout_">
				
				
				
				
				<div class="et_pb_heading_container"><h1 class="et_pb_module_heading">Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”</h1></div>
			</div>
			</div>
				
				
				
				
			</div><div class="et_pb_row et_pb_row_17">
				<div class="et_pb_column et_pb_column_4_4 et_pb_column_17  et_pb_css_mix_blend_mode_passthrough et-last-child">
				
				
				
				
				<div class="et_pb_module et_pb_cta_123 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Qué valoración le merece la Ley de Inteligencia Artificial aprobada en el seno de la Unión Europea? ¿Otorga una protección suficiente para el consumidor ante el reto que implica la IA para toda la sociedad?</h2><div><p>La IA Act surgió al calor de una gran preocupación sobre nuestro futuro debido a la disrupción de la I.A. generativa. No acostumbra a ser una buena cosa legislar precipitadamente sobre un futuro que fundamentalmente desconocemos desde una perspectiva altamente ideológica.</p>
<p>Es más, este es un futuro que se está construyendo y se está construyendo en base a una fiera competencia entre bloques, lo que hace aún más complicado trazar sus aplicaciones y los límites de aplicación de la tecnología.</p>
<p>La tecnología no es un elemento neutro, se construye a partir de los usos creados por la sociedad. Sociedades diferentes tienen usos diferentes con valores diferentes. Si una sociedad carece de la soberanía tecnológica para participar en la construcción de esa tecnología, solo podrá adoptar la que se haya construido por otros, con la ideología y las voluntades de otros.</p>
<p>El gran problema de Europa no es la protección de derechos, es la falta de capacidad de innovar y competir en un espacio global, lo que se ha venido en llamar la “European Paradox”. La atención de las personas y las sociedades es limitada, focalizarla en los derechos resta capacidad para focalizarla en la innovación que es lo que Europa necesita con urgencia.</p>
<p>Sería importante que Europa se focalizase en sus problemas en vez de diluirlos con políticas que buscan afianzar aún más fortalezas existentes a costa de incrementar los problemas de competitividad.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_124 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">Si una sociedad carece de la soberanía tecnológica para participar en la construcción de esa tecnología, solo podrá adoptar la que se haya construido por otros, con la ideología y las voluntades de otros. El gran problema de Europa no es la protección de derechos, es la falta de capacidad de innovar y competir en un espacio global.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_125 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Qué tipo de riesgos legales son los que debe afrontar la normativa relacionada en IA para que el ciudadano/consumidor no quede al albur del poder de la tecnología?</h2><div><p>Es algo ingenuo pensar que la regulación es todopoderosa y va a proteger al ciudadano. Si el buscador dominante es Google, va a ser difícil que con regulación cambies su forma de proceder. Si es Baidu, no habrá regulación que haga que ese buscador indique que Tiananmen fue una matanza.</p>
<p>La regulación tiene límites y normalmente cercanos. Solo la soberanía tecnológica, tener alternativas y participar en la construcción de la tecnología de una forma activa puede asegurar que nuestro punto de vista esté representado.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_126 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">Es algo ingenuo pensar que la regulación es todopoderosa y va a proteger al ciudadano. Si el buscador dominante es Google, va a ser difícil que con regulación cambies su forma de proceder.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_127 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">La propia norma establece una clasificación de riesgos, un semáforo para que los ciudadanos sepan a qué atenerse. ¿Pueden sentirse seguros?</h2><div><p>La IA Act es una regulación moderna que depende en buena medida de la implementación que realice una agencia que aún está por crear.</p>
<p>Pero como toda regulación podemos poner multas, hacer que determinadas funcionalidades no estén disponibles, etc … podemos restar a los productos existentes, pero no hay regulación en el mundo que permita crear los productos que necesitas con tu forma de pensar.</p>
<p>La regulación es un instrumento de diseño de mercados pero siempre muy limitado. Lo estamos viendo en leyes como la de la vivienda. Legislar que los españoles tienen derecho a una vivienda digna no crea viviendas, limitar los precios en un mercado estrecho como el del alquiler solo logra empantanarlo pero no los baja sustancialmente porque es incapaz de solucionar el problema de oferta. La legislación es un instrumento muy limitado.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_128 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">Podemos poner multas, hacer que determinadas funcionalidades no estén disponibles, etc … podemos restar a los productos existentes, pero no hay regulación en el mundo que permita crear los productos que necesitas con tu forma de pensar.</h2></div>
				
			</div><div class="et_pb_module et_pb_cta_129 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Qué responsabilidad se otorga a las empresas que proporcionan productos y servicios basándose en IA para “guiar” al consumidor?</h2><div><p>Depende de la clasificación de riesgo, privacidad de la información usada y consecuencias. En principio la recomendación en si, de películas, libros, etc … está clasificada como bajo riesgo.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_130 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Cómo puede distinguir un ciudadano un contenido/app que funciona con inteligencia artificial frente a las que no usan esta tecnología?</h2><div><p>En muchos casos es imposible de distinguir.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_131 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Puede afectar la IA en la toma de decisiones de un ciudadano en mayor medida que otras tecnologías más vinculadas al pasado?</h2><div><p>Por supuesto, especialmente la I.A. generativa porque es altamente persuasiva.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_132 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">Con la norma europea en las manos, ¿está asegurada la privacidad de un ciudadano frente a la IA?</h2><div><p>Si pudiesemos asegurar qeu se cumpliese la norma, hasta cierto punto sí. Pero debemos tener en cuenta que muchas características están correlacionadas y por lo tanto se pueden inferir a partir de otras.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_133 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Se ha conseguido regular la responsabilidad de las empresas que usan IA para adaptarla al ordenamiento jurídico de cada país, en este caso el de España?</h2><div><p>La IA Act debe trasponerse en cada estado y al ser una norma de rango superior, modificar aquellas que entren en conflicto.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_134 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Qué ocurre cuando una tecnología de IA no cumple esta normativa europea, o cuando se trasponga en su caso a la nacional?</h2><div><p>Dependerá del caso, pero en el extremo no se podrá usar en Europa.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_135 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Cuáles son las obligaciones relativas al marcado de agua y el etiquetado de la información de salida de inteligencia artificial establecidas en el Reglamento de Inteligencia Artificial?</h2><div><p>La IA Act requiere que todo aquello generado por la IA tenga marcas de agua, algo dificilmente conseguible.</p></div></div>
				
			</div><div class="et_pb_module et_pb_cta_136 et_pb_promo  et_pb_text_align_center et_pb_bg_layout_dark et_pb_no_bg">
				
				
				
				
				<div class="et_pb_promo_description"><h2 class="et_pb_module_header">¿Cómo se regula la identificación biométrica? ¿Quedamos expuestos a lo que deseen realizar estas empresas o hay límites?</h2><div><p>La identificación biométrica pública no está permitida, solo en organizaciones concretas o bajo autorización de un juez</p></div></div>
				
			</div>
			</div>
				
				
				
				
			</div>
				
				
			</div>
<p>La entrada <a href="https://www.consumidordigital.org/d-esteban-almirall-profesor-titular-del-departamento-de-operaciones-innovacion-y-data-sciences-en-esade/">D. Esteban Almirall. Profesor titular del departamento de Operaciones, Innovación y Data Sciences en Esade.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>D. Borja Adsuara Varela. Experto en Derecho y Estrategia Digital.</title>
		<link>https://www.consumidordigital.org/borja-adsuara-varela-experto-en-derecho-y-estrategia-digital/</link>
		
		<dc:creator><![CDATA[supervisor]]></dc:creator>
		<pubDate>Wed, 20 Nov 2024 16:47:52 +0000</pubDate>
				<category><![CDATA[Sin categoría]]></category>
		<guid isPermaLink="false">https://www.consumidordigital.org/d-carlos-gomez-rodriguez-universidade-da-coruna-udc-catedratico-de-universidad-cat-un-departamento-ciencias-de-la-computacion-y-tecnologias-de-la-informacion-copy/</guid>

					<description><![CDATA[<p>La entrada <a href="https://www.consumidordigital.org/borja-adsuara-varela-experto-en-derecho-y-estrategia-digital/">D. Borja Adsuara Varela. Experto en Derecho y Estrategia Digital.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>La entrada <a href="https://www.consumidordigital.org/borja-adsuara-varela-experto-en-derecho-y-estrategia-digital/">D. Borja Adsuara Varela. Experto en Derecho y Estrategia Digital.</a> se publicó primero en <a href="https://www.consumidordigital.org">Consumidor digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
