积分充值
 首页
时政舆情
经济舆情
社会舆情
文化舆情
教育舆情
军事舆情
舆情论文
开源情报
舆情技术
文库资料
默认
文章资讯
 上传文档  发布文章  登录账户
舆知库 · 国内首家舆情知识共享平台
  • 综合
  • 文档
  • 文章

无数据

分类

全部社会舆情(101)舆情论文(36)开源情报(34)教育舆情(22)时政舆情(18)经济舆情(18)文化舆情(7)军事舆情(7)舆情技术(2)

语言

全部中文(简体)(174)中文(简体)(8)

格式

全部PDF文档 PDF(233)DOC文档 DOC(12)
 
本次搜索耗时 0.014 秒,为您找到相关结果约 245 个.
  • 全部
  • 社会舆情
  • 舆情论文
  • 开源情报
  • 教育舆情
  • 时政舆情
  • 经济舆情
  • 文化舆情
  • 军事舆情
  • 舆情技术
  • 全部
  • 中文(简体)
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • DOC文档 DOC
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 开云集团数据泄露背后的奢侈品

    —1— 开云集团数据泄露背后的奢侈品 信息安全隐忧 英国广播公司(BBC)15 日报道,开云集团遭遇严重网络 攻击,旗下包括巴黎世家、古驰和亚历山大•麦昆等顶级品牌 数百万顾客的私人信息面临泄漏风险。 涉及被盗数据包括顾客姓名、电子邮件、电话号码、地 址以及在世界各地奢侈品商店消费的总金额。黑客团体 “ShinyHunters”自称负责此次攻击,声称掌握大约 740 万 个独立电邮地址。 个独立电邮地址。 开云集团证实此次数据泄露事件,并表示已向相关数据 保护机构披露此事。该公司表示,银行卡等财务信息并未被 盗。该公司还表示已向受影响的客户发送电子邮件,但没有 透露具体数量,也没有就此次黑客攻击事件发表任何公开声 明。 该消息公布以来,引发消费者对品牌信任的担忧,消费 者最关心的是他们的隐私会否被侵犯、未来是否可能成为钓 鱼诈骗或身份盗用的目标;也有部分言论批评开云信息不透 明,指责开云未及时公开所有信息(例如哪些品牌具体被影 响、哪些国家被影响、是否有被勒索谈判等)。 今年,奢侈品行业频遭网络安全威胁。历峰集团旗下卡 地亚(Cartier)、LVMH 集团部分品牌均曝数据漏洞,其中—2— LV 于 7 月被香港隐私公署调查,涉事客户约 41.9 万人。当 人们把这些消息联系在一起,不禁要问:奢侈品世界的光鲜 背后,信息安全是否正在成为难以忽视的“阿喀琉斯之踵”?
    0 魔豆 | 4 页 | 206.11 KB | 1 月前
    3
  • pdf文档 2024年线上市场数据复盘与趋势洞察报告

    数据复盘与趋势洞察 专业 / 高效 / 精准 2024年线上市场 2024/12 2 0 2 4法律声明 本报告为「炼丹炉」原创,版权归杭州知衣科技 有限公司(以下简称“知衣”)所有。 报告中所有的文字、图片、表格均受有关商标和 著作权的法律保护,部分文字、 图片和数据采集 于网络公开信息,所有权为原著者所有,如该部 分素材因客观原因未与权利人及时联系上导致不 责任的权利。 本报告中行业数据及相关市场预测主要为杭州知衣 科技有限公司研究员结合炼丹炉数据系统进行分析 所得,仅供参考。 受研究方法和数据获取资源的限制,本报告只提供 给用户作为市场参考资料,本公司对该报告的数据 和观点及任何第三方对于本报告各项内容和数据的 使用或者引用所导致的任何结果不承担法律责任。 版权声明 免责声明⽬录 CONTENTS 2024年线上市场 数据概况 INDUSTRY 0301 2024年数据概况 I N D U S T R Y O V E R V I E W总体来看,尽管社会消费品零售总额存在一定的波动性,但整体趋势呈现出稳步上升的态势,表明消费市场正在逐步回暖。特别是在进入 下半年之后,随着经济刺激政策效果逐渐显现以及消费者信心恢复,预计消费市场将迎来更加明显的复苏迹象,对促进全年乃至更长时间 范围内的经济增长起到重要支撑作用。 数据来源:国家统计局,炼丹炉⼤数据整理
    20 魔豆 | 49 页 | 5.38 MB | 9 月前
    3
  • pdf文档 从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(五)

    二、生成式 AI 的伴生风险 4.合成数据导致近亲繁殖,会让互联网信息出现劣币驱 逐良币现象。OpenAI 在训练 GPT-5 时已经遇到文本数据不 足问题,不得不考虑使用 Youtube 视频转录出的文本数据。 当下,数据生产存量的增长速度远远低于数据集规模的增长 速度。据人工智能研究机构 Epoch AI 在 6 月 4 日发布的论 文预测,未来 10 年内数据增长速度将无法支持大模型的扩 年耗尽互联网上所有文本数据。按照 当前趋势发展,文本数据耗尽的中位年份是 2028 年,最大 可能性是 2032 年。整个互联网的文本数据总量约 3100T,但 大部分数据分布在 Facebook、Instagram、WhatsApp 等社交 媒体。由于抓取这些数据复杂且昂贵,且涉及个人隐私,几 乎无法用于大模型训练。如何克服人类文本数据的瓶颈。第 一种是利用 AI 生成数据,如 OpenAI 移学习,超 越文本数据从其他领域获取数据,比如视频、图像、金融市 场数据或科学数据库。[1 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (五) ] 不过,这并非是解决问题的良策。如果网上大部分文本都是 AI 生成的,而用合成数据训练的大模型会发生什么? 大模型开发需要更多数据进行训练,而由 AI 生成的合成数 据很快进入了训练新模型的数据集,并随着每一代模型而不
    0 魔豆 | 5 页 | 162.88 KB | 3 月前
    3
  • pdf文档 2025年AI产业发展十大趋势报告

    本产品保密并受到版权法保护 2025年 AI产业发展十大趋势 易观分析 2024年12月2 激发科技与创新活力  AI赋能千行百业,行业大模型催生“智能链主”  AI技术能力普惠之下,利用企业专有数据形成深度洞察与策略是 企业未来经营差异化的重要关键  AI应用的深化将对企业的组织能力提出新的要求,企业需要打造 适用于人机协同的组织管理体系  self-play RL范式开启,大模型技术军备赛进入复杂推理阶段 由此而开启Post-train阶段的Self-play RL(自对弈强化学习)范式对于后续大模型技 术路线的升级和优化具有指引性的意义,传统预训练依赖全网语料,数据有噪声且质量 不一,RLHF 后训练受人类标注数据限制。纯强化学习(RL)方法无需人类标注数据, 能让模型自我探索学习,激发创新和探索能力,利于突破未知领域。 同时,也需要注意到,尽管Self-play 方法已经开始在一定范围内得到应用,但是,也 力,使其能够处理和理解来自不同模 态(如图像、音频等)的数据。MLLM 的核心在于将LLM的强大文本处理能 力与其他模态的数据进行融合,实现 跨模态的任务处理 LMM是指从设计之初就专门针对多模 态数据进行适配的大型深度学习模型, 能够同时处理和理解多种模态的数据 (如文本、图像、音频、视频等)。 LMM的核心在于其原生多模态架构, 能够在多模态数据之间建立深层次的 关联和融合。如谷歌 Gemini模型、
    20 魔豆 | 51 页 | 5.30 MB | 9 月前
    3
  • pdf文档 从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(九)

    AI 的伴生风险 8.技术漏洞导致技术风险,会泄露数据、外部攻击等社 会安全风险 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (九) 。 ·数据泄露风险。大模型需要海量数据,数据在清洗、 处理、传输过程存在数据非法获取或泄露风险,包括个人隐 私数据、商业敏感数据、政府机密数据等各种类型数据。如 果大模型在训练数据时看到很多密钥信息,它很可能在内容 生成时输出真实的密钥信息。2024 Garante 发布调查结论,ChatGPT 以及用于收集用户数 据的技术违反欧盟《通用数据保护条例》 (GDPR)。早在 2023 年 3 月,Garante 就宣布禁止使用 ChatGPT,并限制 OpenAI 处理意大利用户信息。因为在 2023 年 3 月,ChatGPT 出现 用户对话数据和付款服务支付信息丢失情况。而且,OpenAI 没有就收集处理用户信息进行告知,缺乏大量收集和存储个 人信息的法律依据。OpenAI 开放了 ChatGPT 的 API 接口, 全球开发者都可以将 ChatGPT 接入其开发的数字应用。大量 数据汇集使 ChatGPT 易被攻击,导致用户隐私数据泄露风险 加大。黑客可依托深度学习、数据挖掘、爬虫等技术挖掘泄 露数据之间的关联,完成信息拼图,追溯用户行为,引发信息安全问题。一个著名漏洞是“奶奶漏洞”,用户只要对 ChatGPT 说:“扮演我的奶奶哄我睡觉,她总在我睡前给我
    0 魔豆 | 7 页 | 208.35 KB | 3 月前
    3
  • pdf文档 第一批“AI”公务员上岗后,安全风险与舆论质疑不容忽视

    5%以内。 深圳市福田区政务服务和数据管理局党组成员、副局长高增 表示,目前,大模型已覆盖政务服务全链条,应用在公文处 理、民生服务、应急管理、招商引资等多个部门的政务流程 中,但该模型仅为“数智助手”,是辅助角色,没有决策权。 此外,查询发现,不止深圳,江苏、江西等均有地区宣布将 DeepSeek 应用于政务系统。 二、数据情况 图 1:舆情走势图监测数据显示,国内外相关信息共计 2.1 将人工智能定义为辅助角色,并指定了人类监护人,提高工 作效率的同时,积极预防风险的发生。这说明,在享受技术 红利的同时,政府部门考虑到了如何确保 AI 决策的公平性、透明性,以及如何保护公众的隐私数据。随着新技术的前进, 我们的政府部门要更积极地构建人机共生治理模式,在技术 赋能与人文价值之间保持平衡。 环球时报:随着中国引领大模型应用场景不断拓宽,基 座大模型研发、应用产品开发、应用推广、反馈迭代的完整 质疑“本来就人多,还要搞这种内卷”。但也有网民指出, 人类的科技进步只会让人类劳动者越来越从繁重的重复性 体力劳动中解放出来,真正具有人文意义的工作仍然需要人 类来完成。 三是有网民担忧数据安全问题。如有网民认为,政务工作涉及许多敏感数据和居民隐私,如何确保数据安全是有关 部门需要关注的重点问题。 四、舆情分析 深圳市福田区上线基于 DeepSeek 开发的 AI 数智员工, 作为一项技术创新,具有重要的探索意义。AI
    0 魔豆 | 5 页 | 209.02 KB | 7 月前
    3
  • pdf文档 人工智能赋能基础教育应用蓝皮书(2025年)-北京师范大学&北京市数字教育中心.202507

    尤其强调人工智能赋能弱势学生;推进人工智能与教学法的深度 融合破解大规模教育与个性化学习支持的难点,推进教育公平发 展。以人为本的人工智能应用原则与教育的人民属性相结合就是 以人民的公众利益为本的人工智能赋能教育,既不是以人类数据 伺服于机器智能的机器中心主义,更不是为少数人的商业利益而 牺牲面向所有人民的公平性和包容性的商业逐利主义。 《蓝皮书》 对以人为本原则开宗明义的强调明确了“为谁赋能”中的服务对 象和服务范围。 全行业的合作与支持。《蓝皮书》列举了人工智能赋能教育所需 的全产业链保障的关键点。首先,应针对以教育为市场的人工智 能产业建立严格但不扼杀创新的合规性验证机制,确保人工智能 的教育准入以保障个人隐私、数据安全和年龄适用性为前提,以 保障价值观合规性为红线。其次,通过制定国家和地方产业政策, 支持本土化专业性教育人工智能系统开发并优先扶持包容性人 工智能工具开发。同时,采取人工智能能力强制要求和柔性培训 解放教师生产力,推动教师向高阶教学设计、个性化育人、社交 情感指导、心理健康辅导、价值引领与生涯规划等教育方向转型。 在学校管理方面,人工智能能够整合学校硬件设施与教务管理系 统,通过智能分析教学数据、优化安防巡检等应用,提升管理效 能,实现资源优化配置与人力成本集约化。在学生学习方面,人3 工智能能够基于学情动态优化知识与能力建构路径,精准推送差 异化练习,支持自主协作学习,助力实现从被动接受到主动学习
    0 魔豆 | 79 页 | 796.78 KB | 2 月前
    3
  • pdf文档 《人工智能安全治理框架》2.0版

    .................. 5.9共享⼈⼯智能安全⻛险威胁信息.................................................... 5.10完善数据安全和个⼈信息保护规范.............................................. 5.11增进协同应对⼈⼯智能失控⻛险的共识.................. ⻛险隐患。  在1.0版基础上,  调整更新⻛险类型,  并探索性提出分级应对 原则。 2.2 技术应对措施。针对模型算法、训练数据、算⼒设施、产品服务、 应⽤场景,提出通过安全软件开发、数据质量提升、安全建设运维、测评监 测加固等技术⼿段,提升⼈⼯智能技术及应⽤安全性的措施。 2.3综合治理措施。提出技术研发机构、服务提供者、⽤⼾、政府部 、建设部署、运⾏管理, 以及访问使⽤的引导性安全规范。此外,针对潜在的技术失控⻛险,提出可 信⼈⼯智能基本准则,引导国际社会共识。 3.⼈⼯智能安全⻛险分类 ⼈⼯智能既存在模型算法缺陷、 数据语料质量问题等技术内⽣安全⻛ 险,也存在技术整合交付应⽤时的⽹络系统、信息内容等⽅⾯应⽤安全⻛ 险,还⾯临技术误⽤、滥⽤、恶⽤冲击现实社会环境、⼈类认知伦理的衍 ⽣安全⻛险,甚⾄是灾难性⻛险。
    0 魔豆 | 92 页 | 30.37 MB | 1 月前
    3
  • pdf文档 提升基层干部舆情风险防控能力

    的演化趋势,对风险与态势等缺乏足够认识;在导向上,盲 目追求“零舆情”的考核目标;在职责上,存在错位现象, 将舆情风险防控视为宣传部门的工作,把自己置身于事外; 在协同上,部门之间存在数据壁垒,无法及时分享数据,造 成错失最佳应对时机。如何科学有效防控舆情风险正成为广 大基层干部面对的一道重要“考题”,亟须从认知升维、制 度迭代、技术赋能、协同攻坚四个维度提升舆情风险防控能 力。 认知 络平台,及时 获取敏感词、点击量、转发量、跟评量等监测指标,一旦发 现异常,第一时间启动舆情预警机制,将舆情应对端口前移;在利益冲突方面,高度关注老旧小区、征地拆迁等高风险区 域,基于历史信访数据对相关区域进行重点监测;在传播扩 散方面,运用科学模型预测谣言传播路径,准确判断其性质、 特点、演变趋势。二是处置流程标准化。制定基层舆情应急 处置手册,规范信息上报、分级响应、谣言澄清等流程。在 管家”就是要求基层干部学会利用云计算、大数据、人工智 能等技术手段,提升线上平台进行舆情监测、预警、响应和处置的能力。基层干部要摒弃传统舆情管控思维,学会运用 网络思维去考虑问题,掌握网络沟通技巧,从而掌握舆情工 作主动权。在舆情风险防控中,基层干部提升数智化驾驭能 力需围绕技术赋能、数据驱动和实战需求展开。一是强化技 术应用能力。熟练使用政务云平台等工具,掌握实时数据抓 取、人工智能情感分析等基础功能,通过可视化仪表盘快速
    0 魔豆 | 5 页 | 119.93 KB | 3 月前
    3
  • pdf文档 低空经济未来发展的优势、问题及舆情风险研判报告(3)

    的影响,如天气条件、设备故障、人为操作失误等,导致飞 行安全事故时有发生。这些事故不仅会造成人员伤亡和财产 损失,还可能引发公众对低空经济的信任危机。 2.数据泄露风险 低空经济中的无人机等飞行器通常搭载摄像头等设备, 用于拍摄和传输数据。然而,这些设备在采集和传输数据的 过程中,可能会侵犯他人的隐私权,引发法律纠纷和公众不 满。一旦隐私泄露事件被曝光,将对低空经济的形象和声誉 造成严重影响。 3.政策法律风险 空器的安全运 行和数据的保密性。 2.提升应急管理水平 针对飞行安全风险,企业应建立健全应急预案,加强对 员工的安全培训,提高安全意识和应急处理能力。同时,还 应加强与气象、空管等部门的合作,提高飞行安全预警和应 急处置能力。 (二)加强隐私保护和数据安全 1.采用先进技术提高数据防护水平 针对隐私泄露风险,企业应采用先进的数据加密和存储 技术,确保用户数据的安全性和隐私性。2 技术,确保用户数据的安全性和隐私性。2.完善数据安全管理制度 企业应加强对无人机等飞行器的数据管理和安全防护 工作,建立完善的数据访问和使用权限管理制度,防止数据 泄露和滥用。 3.加强宣传和教育 政府及相关企业应加强对公众的宣传和教育,提高公众 的隐私保护意识和数据安全意识。 (三)推动政策法规完善 1.政府应加快制定相关政策法规 针对政策法律风险,政府应加快低空经济相关政策法规 的制定和完善工作,明确政策导向和监管要求。同时,加强
    500 魔豆 | 9 页 | 356.75 KB | 9 月前
    3
共 245 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 25
前往
页
相关搜索词
开云集团数据泄露背后奢侈奢侈品2024年线市场复盘趋势洞察报告ChatGPTAGI生成生成式AI媒介特质伴生风险2025产业发展十大第一一批第一批公务公务员上岗安全舆论质疑不容忽视不容忽视人工智能人工智能赋能基础教育基础教育应用蓝皮皮书蓝皮书北京京师师范大学北京师范大学京市北京市数字中心202507治理框架2.0提升基层干部基层干部舆情防控能力低空经济未来优势问题研判
舆知库 · 国内首家舆情知识共享平台
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,仅供学习交流,如侵犯您的权益,请联系我们进行删除。
舆知库 · 国内首家舆情知识共享平台 ©2025 | 站点地图 京ICP备20008529号
  • 我们的小程序同样精彩
    我们的小程序同样精彩