<legend id="h4sia"></legend><samp id="h4sia"></samp>
<sup id="h4sia"></sup>
<mark id="h4sia"><del id="h4sia"></del></mark>

<p id="h4sia"><td id="h4sia"></td></p><track id="h4sia"></track>

<delect id="h4sia"></delect>
  • <input id="h4sia"><address id="h4sia"></address>

    <menuitem id="h4sia"></menuitem>

    1. <blockquote id="h4sia"><rt id="h4sia"></rt></blockquote>
      <wbr id="h4sia">
    2. <meter id="h4sia"></meter>

      <th id="h4sia"><center id="h4sia"><delect id="h4sia"></delect></center></th>
    3. <dl id="h4sia"></dl>
    4. <rp id="h4sia"><option id="h4sia"></option></rp>

        欢迎访问365bet外围网站_365bet手机下载_365bet体育在线投政法网!

        调查研究

        当前位置:首页 » 调查研究

        信息保护立法要给“算法”划红线

        时间:  2021/8/20 10:00:22  

        信息保护立法要给“算法”划红线


        木须虫


        算法虽然不是坏东西,但其本身也利弊各半,况且还容易被劫持和利用,也必然要求其应用谨守边界,能用而非滥用。


        针对人们担忧的个性化推荐问题,个人信息保护法(草案)三审稿明确自动化决策应当遵守个人信息处理的一般规则,包括应遵循合法、正当、必要和诚信原则,目的明确和最小化处理原则,公开透明原则,信息质量原则,责任原则等;自动化决策,包括用户画像、算法推荐等,应当在充分告知个人信息处理相关事项的前提下取得个人同意,不得以个人不同意为由拒绝提供产品或者服务。


        个性化推荐在网络广泛应用,如果你经常浏览几个固定类别的信息,那么平台更新推荐的都将集中在这些类别;而在电商平台,如果用户经常购买一些类别的商品,如书籍、书法用品等,那么这些类别的商品会是高频推荐的对象。


        诸如此类,这些推荐是基于用户消费习惯信息数据算法产生的信息推送结果,应该说与用户的个体要求有较高的重合度。当这些数据中包括了个人消费能力判断时,不同用户搜索同一商品,出现推荐商品价格方面的差异,并不会令人意外。


        客观来说,算法是一柄双刃剑,有利的一面是提高信息推荐与用户需求的匹配度,提高用户搜索的效率,帮助用户节约时间;不利的一面则会加剧用户“信息茧房”的困局,进而失去信息选择的能力。如购物,买的东西越贵、喜好倾向越固定,那么获得推荐并购买不符合喜好、突破风格习惯的商品就会越难,无形中给自身的消费思维上了道枷锁。


        更关键的是,当机器算法有人为计算的加持,算法推荐的个性化便很可能变成被个性化,“信息蚕房”则可能变成薅羊毛的暗箱,如同样的商品,可以以不同的价格策略来匹配不同人群的信息推荐,便不可避免地出现大数据杀熟。


        可见,算法虽然不是坏东西,但其本身也利弊各半,况且还容易被劫持和利用,也必然要求其应用谨守边界,能用而非滥用。个性化是用户选择的结果,真正的个性化推荐必须保证用户选择的自由,而非强制。因此,必须首先赋予用户对个性化推荐功能用或不用的权利,禁止强制使用,由平台替用户做主。其次,个性推荐商品不能与用户消费能力挂钩,使得消费者丧失对商品充分的知情权和选择权。


        此次个人信息保护法(草案)相关规定,对这些作了进一步的明确,旨在给个性化推荐的应用划出清晰的红线,进一步织密大数据时代个人权利的保护网。


        当然,防止个性化推荐损害公平,在完善立法的同时,更需要加强监管。如针对个性化推荐,应当督促平台落实标识提示和“一键关闭”功能,同时,针对个性化推荐可能发生的价格捆绑,明确将其纳入到大数据杀熟行为内进行管理和监督。


        来源:人民法院报
        责任编辑:李彩霞