Рус Eng Cn 翻译此页面:
请选择您的语言来翻译文章


您可以关闭窗口不翻译
图书馆
你的个人资料

返回内容

哲学与文化
正确的文章链接:

对俄罗斯公民ChatGPT信息安全的社会文化威胁的文化解构

Bylevskiy Pavel Gennadievich

ORCID: 0000-0002-0453-526X

博士学位 哲学



119034, Russia, Ostozhenka str., 36, office 106

pr-911@yandex.ru

DOI:

10.7256/2454-0757.2023.8.43909

EDN:

UZDRFW

评审日期

22-08-2023


出版日期

29-08-2023


注解: 该研究的主题是与ChatGPT技术相关的俄罗斯公民信息安全的社会文化威胁(聊天生成预训练变压器,一种模拟对话的机器生成文本响应生成器)。 研究的对象−基于生成语言模型的优势和威胁的比率的评价"机器学习"在现代(2021-2023)科学文献(期刊HAC K1,K2和Scopus Q1,Q2). 该研究的科学新颖性在于分析与使用ChatGPT作为"人工智能"技术之一相关的俄罗斯公民安全威胁的文化方法。 经典图灵测试"将人与机器区分开来"的问题的表述被定性为学术抽象,而是提出了一种更正确和富有成效的方法:对新计算机技术的价值(基于文化公理学)进行社会文化评估。 分析的起点是由于使用基于机器学习的生成性语言模型而确定社会文化价值(或者相反地,损害)。 进一步,其创建和应用的各种社会文化主体的贡献和责任被揭示−用户,创建者和开发人员. 应用拟议方法的结果是解构了"人工智能哲学"话语,即对旨在营销和吸引资金的开发者声明进行不加批判的翻译。 肥大的感知,在乌托邦和反乌托邦的边缘不稳定地平衡,被评估为信息安全威胁的错误识别和排名的风险。 关于假设的"心理战超级武器"的假设掩盖了现代机密数据跨境泄漏事件,由于使用ChatGPT而被追究故意发布虚假信息和非法内容的责任的风险。 建议采取国家安全措施,包括限制措施和增加用户信息安全的一般公民文化,以及在俄罗斯公民的传统价值、社会文化特性和利益方面发展这种解决办法的国内发展方向。


出版日期:

GPT聊天, 生成语言模型, 人工智能, 图灵测试, 数字主权, 社会文化威胁, 资讯保安, 传统价值观, 社会文化认同, 造谣