<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0"><channel><title><![CDATA[Intergalactica]]></title><description><![CDATA[Exploring the intersection of disruptive technologies and the law, with a focus on AI, privacy and data governance, platforms, and copyright.]]></description><link>https://www.intergalactica.org</link><image><url>https://substackcdn.com/image/fetch/$s_!Y8dH!,w_256,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fac63060e-cbbd-4440-a101-53e93d4bad7c_1280x1280.png</url><title>Intergalactica</title><link>https://www.intergalactica.org</link></image><generator>Substack</generator><lastBuildDate>Fri, 03 Apr 2026 20:00:28 GMT</lastBuildDate><atom:link href="https://www.intergalactica.org/feed" rel="self" type="application/rss+xml"/><copyright><![CDATA[María Alejandra Soler Rángel | Andrés Felipe Umaña Chaux]]></copyright><language><![CDATA[en]]></language><webMaster><![CDATA[red@intergalactica.org]]></webMaster><itunes:owner><itunes:email><![CDATA[red@intergalactica.org]]></itunes:email><itunes:name><![CDATA[Simplicio Inferenti]]></itunes:name></itunes:owner><itunes:author><![CDATA[Simplicio Inferenti]]></itunes:author><googleplay:owner><![CDATA[red@intergalactica.org]]></googleplay:owner><googleplay:email><![CDATA[red@intergalactica.org]]></googleplay:email><googleplay:author><![CDATA[Simplicio Inferenti]]></googleplay:author><itunes:block><![CDATA[Yes]]></itunes:block><item><title><![CDATA[A lens for AI blurriness ]]></title><description><![CDATA[A Book Review of "AI Snake Oil: What AI Can Do, What It Can't, and How to Tell the Difference", by Arvind Narayanan and Sayash Kapoor]]></description><link>https://www.intergalactica.org/p/a-lens-for-ai-blurriness</link><guid isPermaLink="false">https://www.intergalactica.org/p/a-lens-for-ai-blurriness</guid><dc:creator><![CDATA[Simplicio Inferenti]]></dc:creator><pubDate>Mon, 02 Dec 2024 05:11:29 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!vv5F!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!vv5F!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!vv5F!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg 424w, https://substackcdn.com/image/fetch/$s_!vv5F!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg 848w, https://substackcdn.com/image/fetch/$s_!vv5F!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!vv5F!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!vv5F!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg" width="964" height="1500" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/b9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:1500,&quot;width&quot;:964,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:166301,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/jpeg&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:null,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!vv5F!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg 424w, https://substackcdn.com/image/fetch/$s_!vv5F!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg 848w, https://substackcdn.com/image/fetch/$s_!vv5F!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!vv5F!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9aef20c-d39e-457d-8284-6aba559eeb01_964x1500.jpeg 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>After more than 2 years of GenAI hype (or GenAI doomism, depending on your intellectual bent), you may be feeling the need for a grounded analysis of the implications of artificial intelligence for society. &#8220;<em>AI Snake Oil: What AI Can Do, What It Can't, and How to Tell the Difference</em>", by Arvind Narayanan, professor of computer science at Princeton, and Sayash Kapoor, PhD candidate at the same institution, is a timely book that fills that gap. As many others do, the book explains the capabilities and risks of current AI technologies. But its novelty comes from unmasking the many times exaggerated, and sometimes plainly deceptive, claims of AI companies regarding those capabilities. These practices, innocently or negligently spread by the media, are the &#8220;Snake Oil&#8221; that the authors want to unmask.</p><p>The authors focus on 3 technologies: Predictive AI, Generative AI and Content Moderation technologies, but the most interesting section was the authors&#8217; analysis of Predictive AI.</p><h3>The Doom of Predictive AI </h3><p>Predictive AI&#8217;s inherent limitations, the authors&#8217; argue, make it likely to fail to automate decision-making: &#8220;<em>predictive AI not only does not work but will likely never work, because of the inherent difficulties in predicting human behavior</em>&#8221;. Some of the reasons for this failure can be attributed to the specific way machine learning models are created and deployed. For example, trained on past hospitalization history of an institution, a machine learning model could correctly predict that asthmatic patients with symptoms of pneumonia are at a lower risk of serious pneumonia or death but could totally miss that the reason for such lower risk is that asthmatic patients with symptoms of pneumonia are sent directly to the ICU to avoid complications and hence receive better treatment. Deploying such a model to decide when a patient should be hospitalized would have catastrophic effects in spite of being &#8220;correct&#8221; in the actual risk of patients based on the data. &#8220;<em>AI can make good predictions if nothing else changes</em>&#8221; but the world, of course, is constantly changing. There&#8217;s no clear path for Predictive AI to surpass this inherent limitation.</p><p>When predicting social behavior, additional difficulties arise from the fact that we lack theories to determine the limits of our predictions. In physics, we know that the laws of thermodynamics do not allow us to predict the behavior of individual atoms. Trying to make such predictions would only generate errors; we know the limits of such laws because we know that those errors are &#8220;irreducible&#8221;. It&#8217;s not the same with the theories that explain social behavior. Those theories are not as developed so we don&#8217;t really know their limits. Just as with the laws of thermodynamics, there may be &#8220;irreducible errors&#8221; in their predictions of social behaviors, but we don&#8217;t know them yet. And no machine learning model can be sufficiently accurate for important human decisions without a deep understanding of such limits.</p><p>Other practical reasons explain why Predictive AI fails: It doesn&#8217;t adequately deal with people behaving strategically to game AI systems (a challenge shared by content moderation technologies); it requires permanent human oversight but many systems are deployed without offering any recourse to the subjects of the decision (over-automation); training data will many times come from a different population than the one the model is used on; it can create inequality by using proxies that are based on economic or business incentives instead of measuring the actual data; and vicious feedback loops that derail accuracy.</p><p>These are all cogent arguments, but claiming Predictive AI is a failure seems a bit extreme. If the expectation were that the inherent limitations of Predictive AI prevent us from automating all decisions, then yes, Predictive AI is a failure, but beyond that all-or-nothing premise there&#8217;s ample room for using these technologies. Even when not accurate, predictions could be very useful in many situations where, for example, great accuracy is not needed, where social behavior is not involved or is involved but no fundamental right is at stake, or when information is so scarce that predictions slightly better than chance are still helpful. These predictions may allow for better decisions even with its inherent limitations. Current regulatory approaches that classify uses according to levels of risk and impose measures only to the levels of high risk suggest that Predictive AI has productive applications beyond the concerns of the &#8220;Snake Oil&#8221; claims.</p><h3><strong>A Recount on Gen AI and the Ladder of Generality</strong></h3><p>Narayanan and Kapoor move to Generative AI next. They offer a nice recount of the history and some of the technical properties of GenAI. If you&#8217;re not familiar with any of this, you&#8217;ll find their explanations about vectors, tokens and transformers highly readable and useful. And even if you&#8217;re familiar with these ideas, you might find some nice insights, such as how ImageNet helped build the current practices for developing AI or how the Google Photos-Gorillas issue<a class="footnote-anchor" data-component-name="FootnoteAnchorToDOM" id="footnote-anchor-1" href="#footnote-1" target="_self">1</a> has not been really solved yet (!).</p><p>Besides this helpful overview, one of the main warnings that Narayanan and Kapoor give us about the discussions brought by Generative AI is against thinking that the main issue to address right now is the &#8220;existential threat&#8221; of AI or the &#8220;catastrophic risks&#8221; &#8220;Artificial General Intelligence&#8221;. The authors argue that &#8220;<em>We don&#8217;t think AI can be separated into &#8220;general&#8221; and &#8220;not general&#8221;. Instead,</em> <em>the history of AI reveals a gradual increase in generality</em>&#8221;. AI challenges are better understood through a &#8220;ladder of generality&#8221; framework that goes from special-purpose hardware in the &#8220;floor&#8221; through 6 rings of generality all the way to &#8220;instruction-tuned models&#8221;. This ladder can help us prioritize; we can use real-world data and experiences to defend ourselves from &#8220;specific threats&#8221; (e.g. cybersecurity and product safety) instead of regulating &#8220;existential threats&#8221;, that are not likely to being substantial in the near future<a class="footnote-anchor" data-component-name="FootnoteAnchorToDOM" id="footnote-anchor-2" href="#footnote-2" target="_self">2</a>. The authors also suggest that this approach will be more fruitful than &#8220;alignment&#8221; efforts, that is, efforts to align technologies to our values so that they don&#8217;t help bad actors.</p><h3><strong>AI for content moderation</strong></h3><p>For content moderation technologies the analysis is less pessimistic than for Predictive AI but the authors also highlight some inherent difficulties: (i) Content moderation is heavily dependent on context, and AI&#8217;s inability to discern that context creates a major limitation for its use in this realm; (ii) Content moderation is also inherently political and dependent on how the world changes;(iii) Some content becomes harmful only in the aggregate, away from the reach of content moderation technologies that review individual posts; (iv) Humans change perception constantly and perceptions vary across borders; (v) communities constantly create their own slangs to prevent outsiders understanding public communications, making it harder for AI to moderate such content, especially because many times members of these communicates intentionally use such language to circumvent content moderation technologies.</p><p>The book ends with a reflection of why it is important to fight against these myths. AI&#8217;s impact in the world is still up for grabs but, if we don&#8217;t do something about it, the grimmest world, one where AI takes over the content of the world unchecked, is the most probable one. So the authors have a call to action to all of us: &#8220;<em>We hope it is clear that vastly different futures are possible when it comes to the role of AI in society&#8230;we are not okay with leaving the future of AI to the people currently in charge&#8230; There is a role for everyone in shaping the future of AI and its role in society. We are playing our small part by writing this book and a newsletter. Join us</em>&#8221;.</p><p>Snake Oil is a great book for the general reader with no previous technical background on AI or the societal issues that it brings. You won&#8217;t find detailed analysis of these issues in the book but this is not a flaw; it&#8217;s a feature. Even if you are familiar with these issues and are looking for a deeper analysis, this book may serve as a lens to better see the context and find where to go next.</p><div class="footnote" data-component-name="FootnoteToDOM"><a id="footnote-1" href="#footnote-anchor-1" class="footnote-number" contenteditable="false" target="_self">1</a><div class="footnote-content"><p>The scandal that involved Google Photos mistakenly classifying black persons as &#8220;gorillas&#8221; was well documented in the media back in 2015, as shown <a href="https://www.bbc.com/news/technology-33347866">here</a>.</p></div></div><div class="footnote" data-component-name="FootnoteToDOM"><a id="footnote-2" href="#footnote-anchor-2" class="footnote-number" contenteditable="false" target="_self">2</a><div class="footnote-content"><p>For a more detailed analysis about the book&#8217;s principles to address AI risks, we recommend reading the &#8220;<a href="https://www.understandingai.org/p/six-principles-for-thinking-about">Six principles for thinking about AI Risk</a>&#8221; post in <a href="https://www.understandingai.org/">Understanding AI</a> substack, by Timothy B. Lee.</p><p></p></div></div>]]></content:encoded></item><item><title><![CDATA[Comentarios sobre las Circulares Externas 002 y 003 de la Superintendencia de Industria y Comercio]]></title><description><![CDATA[Por: Alejandra Soler y Andr&#233;s Uma&#241;a]]></description><link>https://www.intergalactica.org/p/comentarios-sobre-las-circulares</link><guid isPermaLink="false">https://www.intergalactica.org/p/comentarios-sobre-las-circulares</guid><pubDate>Wed, 04 Sep 2024 05:42:05 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/be399ff8-5e76-4367-b400-3fd8115fb519_1474x921.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>La Superintendencia de Industria y Comercio, como autoridad de protecci&#243;n de datos, expidi&#243; hace unos d&#237;as la Circular 002 de 2024, con el prop&#243;sito de dar lineamientos sobre el tratamiento de datos personales en sistemas de inteligencia artificial, y la Circular 003 de 2024 con el prop&#243;sito de aclarar el rol de los administradores en el marco del cumplimiento de las normas de privacidad e instruirlos al respecto. Si bien celebramos la expedici&#243;n de estas regulaciones, nos permitimos formular algunas cr&#237;ticas que esperamos enriquezcan su&nbsp; discusi&#243;n.</p><p>Las Circulares no cumplen su cometido de lograr &#8220;certidumbre&#8221; para los <em>administradores de datos personales</em> y &#8220;seguridad&#8221; para los Titulares; por el contrario, los lineamientos dejan m&#225;s dudas que respuestas. Estas imprecisiones son las que merecen la mayor atenci&#243;n. La m&#225;s preocupante de ellas se encuentra, no en las instrucciones, sino en el comentario final de la Circular 003. La Superintendencia dice que los administradores ser&#225;n corresponsables del tratamiento de la persona jur&#237;dica cuando &#8220;<em>en conjunto con la persona jur&#237;dica determinen, respecto de unas operaciones de tratamiento espec&#237;ficas, los fines o los medios sobre la base de datos y/o el tratamiento de los datos</em>&#8221;. Como bien lo anota Andr&#233;s &#193;ngel en su reciente art&#237;culo en LinkedIn<a class="footnote-anchor" data-component-name="FootnoteAnchorToDOM" id="footnote-anchor-1" href="#footnote-1" target="_self">1</a>, la Superintendencia parece parafrasear el concepto de corresponsabilidad del Reglamento General de Protecci&#243;n de Datos Personales de la Uni&#243;n Europea, pero al hacerlo omite que el Comit&#233; Europeo de Protecci&#243;n de Datos, en su Opini&#243;n 7 de 2020, aclar&#243; que (i) el tratamiento hecho por los empleados de una persona jur&#237;dica se <strong>presume</strong> realizado &#8220;<em>bajo el control de dicha organizaci&#243;n</em>&#8221; (es decir, la persona jur&#237;dica se mantiene como responsable y no el empleado; y (ii) que el empleado se hace responsable s&#243;lo cuando &#233;ste use los datos para sus propios fines y extralimit&#225;ndose en sus funciones de manera il&#237;cita<a class="footnote-anchor" data-component-name="FootnoteAnchorToDOM" id="footnote-anchor-2" href="#footnote-2" target="_self">2</a>.&nbsp;</p><p>Adem&#225;s, la legalidad del alcance de los lineamientos fijados por v&#237;a de las Circulares no es clara. La corresponsabilidad de los administradores societarios implica la aplicaci&#243;n de todas las reglas aplicables a los responsables, incluido, por ejemplo, el r&#233;gimen sancionatorio. &#191;Puede una circular administrativa extender la aplicaci&#243;n de un r&#233;gimen sancionatorio a quien no fue dirigido en la ley? Esa pregunta es sustancial y no es respondida.</p><p>La segunda imprecisi&#243;n tampoco est&#225; en las instrucciones sino en las consideraciones de la Circular 002 sobre el entrenamiento de sistemas de IA. Despu&#233;s de recordar el principio de responsabilidad demostrada, la SIC trae a colaci&#243;n el ya conocido concepto de &#8220;privacidad desde el dise&#241;o y por defecto&#8221; para decir que &#8220;<em>esto implica que en el momento de hacer anal&#237;tica de datos para entrenar una m&#225;quina con inteligencia artificial se deber&#225;n aplicar t&#233;cnicas matem&#225;ticas que impidan identificar a la persona que proporciona la informaci&#243;n</em>. <em>Con esto se busca prevenir niveles de riesgo no aceptables, por su impacto al vulnerar el consentimiento de los Titulares&#8230; el debido Tratamiento de la informaci&#243;n debe ser un componente esencial del dise&#241;o y puesta en marcha de proyectos de IA&#8221;. </em>M&#250;ltiples dudas surgen inmediatamente. &#191;S&#243;lo las t&#233;cnicas matem&#225;ticas son medidas efectivas para proteger los datos? Eso no se desprende necesariamente del principio de privacidad desde el dise&#241;o y por defecto. M&#225;s grave a&#250;n, &#191;Est&#225; diciendo la Superintendencia que todo entrenamiento de sistemas de IA supone impedir &#8220;<em>identificar a la persona que proporciona la informaci&#243;n</em>&#8221;? &#191;En qu&#233; momento? &#191;Al momento de entrenar el sistema, en la entrada de los datos? &#191;O en sus resultados? En cualquier caso, es una afirmaci&#243;n confusa que desconoce que existen muchos usos de sistemas de IA que no requieren anonimizaci&#243;n o pseudonimizaci&#243;n pues tratan datos personales. Incluso si as&#237; debiera interpretarse, esa afirmaci&#243;n no tiene sustento normativo, pues estas medidas t&#233;cnicas no est&#225;n impuesta como una obligaci&#243;n general y expl&#237;cita en la regulaci&#243;n colombiana.</p><p>Pero entonces cabr&#237;a preguntarse: &#191;Est&#225; hablando &#250;nicamente la SIC del entrenamiento de sistemas de IA a trav&#233;s del raspado de datos (<em>scraping</em>) de Internet? O, lo que ser&#237;a m&#225;s grave a&#250;n, c&#243;mo est&#225; interpretando los principios de autorizaci&#243;n y finalidad en el contexto del entrenamiento de sistemas de IA? Y qu&#233; decir de la necesidad de los sistemas de IA de ser reentrenados de manera permanente para su mejoramiento? Finalmente, debe destacarse que la privacidad desde el dise&#241;o y por defecto no necesariamente implica que los datos tengan que ser an&#243;nimos o seud&#243;nimos, ni mucho menos que lo tengan que ser en todo momento, como parece insinuar la SIC. Este principio es tan s&#243;lo un principio orientador en el dise&#241;o de sistemas que tratan datos personales, pero no es ni un est&#225;ndar que est&#233; formalizado ni un principio del que se desprendan obligaciones concretas en cuanto a la anonimizaci&#243;n de los datos.</p><p>Las Circulares son tambi&#233;n vagas en varios de los lineamientos. La novedad m&#225;s importante de la Circular 002 tal vez sea la &#8220;obligatoriedad&#8221; de los estudios de impacto de privacidad para ciertos sistemas de IA. Esta figura, tra&#237;da de la normativa europea<a class="footnote-anchor" data-component-name="FootnoteAnchorToDOM" id="footnote-anchor-3" href="#footnote-3" target="_self">3</a>, fue introducida en Colombia por la Superintendencia formalmente como una recomendaci&#243;n en la Gu&#237;a Para la Implementaci&#243;n del Principio de Responsabilidad Demostrada para Transferencias Internacionales de la Superintendencia de 2019 y 2021<a class="footnote-anchor" data-component-name="FootnoteAnchorToDOM" id="footnote-anchor-4" href="#footnote-4" target="_self">4</a> y desde entonces se ha incluido en m&#250;ltiples documentos como una recomendaci&#243;n general para responsables y encargados<a class="footnote-anchor" data-component-name="FootnoteAnchorToDOM" id="footnote-anchor-5" href="#footnote-5" target="_self">5</a>. La Circular 003 as&#237; lo hace tambi&#233;n<a class="footnote-anchor" data-component-name="FootnoteAnchorToDOM" id="footnote-anchor-6" href="#footnote-6" target="_self">6</a>. Sin embargo, la Circular 002, en su instrucci&#243;n IV, establece que &#8220;<em>ser&#225; necesario</em>&#8221; realizar estos estudios para desarrollos de IA en los que sea &#8220;<em>probable que los productos realizados&#8230; entra&#241;en un alto riesgo de afectaci&#243;n a los Titulares</em>&#8221; y establece su contenido espec&#237;fico como obligatorio. Pero el alcance de la obligaci&#243;n es dif&#237;cil de concretar, al no definir t&#233;rminos fundamentales como &#8220;probable&#8221;, no&nbsp; calificar dicha probabilidad y hablar de &#8220;riesgo de afectaci&#243;n&#8221; en lugar de &#8220;da&#241;o&#8221;. Finalmente, la SIC habla de &#8220;productos realizados&#8221; sin aclarar si se trata del fabricante del modelo o de quien lo est&#225; entrenando para fines propios, entre otros. La complejidad de estas definiciones, por su amplio impacto en lo que ser&#225; la normativa de la IA en el pa&#237;s, no debe surgir de una circular administrativa.</p><p>Un segundo ejemplo de vaguedad es el comentario de la Circular 002 en el que se&#241;ala que los datos p&#250;blicos no son recursos p&#250;blicos. Las implicaciones de este comentario est&#225;n aun por definirse, pues el alcance de lo que puede ser usado o no para el entrenamiento de sistemas no ha sido claramente definido.&nbsp;</p><p>Un tercer ejemplo es la instrucci&#243;n II de la Circular 002 establece que si hay &#8220;<em>falta de certeza</em>&#8221; sobre los &#8220;<em>potenciales da&#241;os que puede causar el Tratamiento de Datos personales</em>&#8221;, los administradores de datos personales &#8220;<em>deber&#225;n abstenerse de realizar dicho tratamiento (&#8230;) o adoptar medidas precautorias o preventivas para proteger los derechos del Titular del dato, su dignidad y otros derechos humanos</em>&#8221;. &#191;Qu&#233; significa que haya &#8220;falta de certeza&#8221; sobre los &#8220;potenciales da&#241;os&#8221;? &#191;No es siempre ese el caso cuando se trata de un proyecto de IA que trata datos personales? La cuesti&#243;n ser&#237;a m&#225;s preocupante si no fuera porque la consecuencia para la Superintendencia de esa falta de certeza es algo ya dispuesto en las normas y conocido por todos, a saber, la necesidad de tomar medidas preventivas para proteger los derechos del Titular del dato.</p><p>En cualquier caso, son pocas las novedades que traen las Circulares. La Circular 002 da 10 instrucciones a los ciudadanos para el uso de datos personales en sistemas de inteligencia artificial. De ellas, 3 (las instrucciones V, VII y VIII) son copias literales o parafraseos de art&#237;culos de la ley 1581 de 2012, y 4 son reiteraciones de pronunciamientos anteriores de la SIC, como los hechos en la Gu&#237;a de Responsabilidad Demostrada (Instrucciones I, II y III y IX) y en pronunciamientos anteriores. Con excepci&#243;n de la instrucci&#243;n IV, lo mismo hace la Circular 003 en sus instrucciones. Creemos que la Superintendencia perdi&#243; una gran oportunidad de dar pautas m&#225;s amplias para el desarrollo de proyectos de IA. Extra&#241;amos, por ejemplo, referencias a la interpretaci&#243;n del principio de finalidad y los usos compatibles.</p><p>&nbsp;Un comentario final sobre la estrechez del &#225;mbito de aplicaci&#243;n de las Circulares. No cabe duda de que la Inteligencia Artificial ha capturado la atenci&#243;n del p&#250;blico y de los medios de comunicaci&#243;n en los &#250;ltimos dos a&#241;os, pero lo cierto es que buena parte, si no todas, las instrucciones impartidas por la Superintendencia deber&#237;an de aplicarse a otras tecnolog&#237;as, procesos y disciplinas que se usan para procesar masivamente datos personales. Basta s&#243;lo mencionar que las t&#233;cnicas com&#250;n y gen&#233;ricamente denominadas como <em>Big Data</em>, precursoras de la IA, llevan en el mercado m&#225;s de 20 a&#241;os. &#191;Por qu&#233; limitarla a los proyectos de IA?<a href="https://www.sic.gov.co/sites/default/files/files/pdf/Gu%C3%ADa%20%20SIC%20para%20la%20implementaci%C3%B3n%20del%20principio%20de%20responsabilidad%20demostrada%20en%20las%20transferencias%20internacionales(1).pdf"> </a> </p><div class="footnote" data-component-name="FootnoteToDOM"><a id="footnote-1" href="#footnote-anchor-1" class="footnote-number" contenteditable="false" target="_self">1</a><div class="footnote-content"><p><a href="https://www.linkedin.com/pulse/la-trampa-de-corresponsabilidad-est%C3%A1n-en-riesgo-los-con-andr%C3%A9s-%C3%A1ngel-jgs0f/?trackingId=i3x2SAokR3yqSMXOHQ0MYg%3D%3D">La Trampa de la Corresponsabilidad: &#191;Est&#225;n en Riesgo los Administradores Societarios con la Nueva Circular de la SIC? | LinkedIn</a></p></div></div><div class="footnote" data-component-name="FootnoteToDOM"><a id="footnote-2" href="#footnote-anchor-2" class="footnote-number" contenteditable="false" target="_self">2</a><div class="footnote-content"><p><em>En principio, todo tratamiento de datos personales realizado por empleados en el &#225;mbito de las actividades de una organizaci&#243;n se presumir&#225; realizado bajo el control de dicha organizaci&#243;n. No obstante, es posible que, en casos excepcionales, un empleado decida usar datos personales para sus propios fines, extralimit&#225;ndose de manera il&#237;cita en el ejercicio de las funciones que se le hubieran atribuido (p. ej., con vistas a crear su propia empresa o alg&#250;n fin similar). Por tanto, recae en la organizaci&#243;n, en calidad de responsable del tratamiento, el deber de asegurar que se hayan aplicado medidas t&#233;cnicas y organizativas apropiadas, incluyendo, p. ej., la prestaci&#243;n de formaci&#243;n e informaci&#243;n a los empleados con vistas a garantizar el cumplimiento del RGPD. </em>(disponible<a href="https://www.edpb.europa.eu/system/files/2023-10/edpb_guidelines_202007_controllerprocessor_final_es.pdf"> aqu&#237;</a>).</p></div></div><div class="footnote" data-component-name="FootnoteToDOM"><a id="footnote-3" href="#footnote-anchor-3" class="footnote-number" contenteditable="false" target="_self">3</a><div class="footnote-content"><p>V&#233;ase el art&#237;culo 35 del Reglamento General de Protecci&#243;n de Datos.</p></div></div><div class="footnote" data-component-name="FootnoteToDOM"><a id="footnote-4" href="#footnote-anchor-4" class="footnote-number" contenteditable="false" target="_self">4</a><div class="footnote-content"><p><a href="https://www.sic.gov.co/sites/default/files/files/pdf/Gu%C3%ADa%20%20SIC%20para%20la%20implementaci%C3%B3n%20del%20principio%20de%20responsabilidad%20demostrada%20en%20las%20transferencias%20internacionales(1).pdf">Gu&#237;a SIC para la implementaci&#243;n del principio de responsabilidad demostrada en las transferencias internacionales(1).pdf</a> y<a href="https://issuu.com/quioscosic/docs/2021_gu_as_para_implementaci_n_del_3a2db4b19e62db"> Gu&#237;a para implementaci&#243;n del principio de responsabilidad demostrada 2021 by Superintendencia de Industria y Comercio - Issuu</a>.</p></div></div><div class="footnote" data-component-name="FootnoteToDOM"><a id="footnote-5" href="#footnote-anchor-5" class="footnote-number" contenteditable="false" target="_self">5</a><div class="footnote-content"><p>El art&#237;culo 2.2.17.5.2. del Decreto 620 de 2020 ha sido tal vez el &#250;nico que ha impuesto una evaluaci&#243;n, pero esta era una obligaci&#243;n limitada a los prestadores de servicios ciudadanos digitales.</p></div></div><div class="footnote" data-component-name="FootnoteToDOM"><a id="footnote-6" href="#footnote-anchor-6" class="footnote-number" contenteditable="false" target="_self">6</a><div class="footnote-content"><p>La instrucci&#243;n IV los pone como un ejemplo y el contenido de los mismos no parece obligatorio sino que la Superintendencia habla de lo que &#8220;podr&#237;an&#8221; incluir.</p></div></div>]]></content:encoded></item><item><title><![CDATA[Test]]></title><description><![CDATA[Test]]></description><link>https://www.intergalactica.org/p/----THEME-PREVIEW----</link><guid isPermaLink="false">https://www.intergalactica.org/p/----THEME-PREVIEW----</guid><dc:creator><![CDATA[Simplicio Inferenti]]></dc:creator><pubDate>Mon, 12 Aug 2024 02:48:58 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!Y8dH!,w_256,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fac63060e-cbbd-4440-a101-53e93d4bad7c_1280x1280.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Test</p>]]></content:encoded></item></channel></rss>