机器人新闻写作中的用户隐私保护研究
来源:
发布时间:2023-10-19
点击量:714次
- 收藏
-
微信版
【摘要】智能媒体时代,机器人新闻写作依赖的数据共享与用户主张的个人隐私保护出现激烈冲突,究其原因主要在于智能化新闻生产技术的广泛使用带来了隐私内涵的变化和隐私权利主体的改变。为了在保障机器人新闻写作技术可持续发展的同时,实现用户个人利益与社会公众利益的平衡,应当明确智能新闻生产语境中的用户隐私保护责任主体,建立隐私管理的人机协作模式;采用更加适用于机器人新闻写作的新闻伦理准则,将隐私保护条款项先植入算法中,提升算法透明度,保障用户知晓权;同时提升算法工程师的伦理水平和用户的隐私素养。
机器人新闻写作最早诞生于美国,是指利用自然语言处理、大数据分析、算法模型等技术实现新闻的采集、生产与分发全过程自动化的智能写作模式。国外较具代表性的新闻写作机器人包括《华盛顿邮报》的Heliograf、雅虎的智能机器Wordsmith、路透社的Open Calais系统等。当下风头正劲的ChatGPT也具备强大的信息提取、文本生成和学习的能力,能够实现更加快速精准便捷的新闻写作。[1]2023年7月20日,ChatGPT增加了Custom instructions新功能,使其具备个性化特色的同时能更好地贴近使用者的需求。国内的机器人新闻写作起步较晚但发展迅猛,代表性较强的有新华社的快笔小新、腾讯的Dreamwriter、字节跳动的Xiaomingbot和封面新闻的小封机器人等。随着机器人新闻写作技术的不断推广,由此产生的用户隐私侵权风险也日益引起国内外学者的重视。
传统媒体时代,媒体公开信息、保证言论自由的同时,通过使用化名、笔名、打马赛克等方式来保护用户的隐私信息。智能媒体时代,这些曾经行之有效的手段已经难以应付自动化新闻生产面临的复杂问题。因此,厘清机器人新闻生产中隐私侵权问题的权利边界与责任归属,从法律、伦理等层面保证机器人新闻写作的合理、合法,才能推动机器人新闻写作的更好更健康发展。
一、机器人新闻写作中的隐私侵权风险
上一篇:算法社会公共领域的风险生发与规避
下一篇:聚焦黄河文化 讲好中国故事
2018人打赏
会员登陆
热门排行
查看更多评论