登录

智能体


分类

行为

伦理与价值对齐是指智能体的行为需符合人类价值观(如“不伤害人类”、“公平”、“隐私保护”),而奖励函数无法准确表征这些“模糊的价值”,导致其“行为失范”。
文章

奖励函数是强化学习(RL)中引导智能体行为的核心组件,其设计直接影响智能体的学习效率与行为合理性。
文章

能力

意义:三要素模型将抽象的“信任”转化为可设计的属性——开发者可通过增强智能体的能力(提升性能)、展现善意(明确用户中心目标)、遵守诚信(透明规则)来培养信任。
文章

智能体

②意图可信度,具体表现为智能体是否"理解"我的目标?
文章

信(Belief/Confidence)——认知维度有三个核心问题:①能力可信度,具体表现为智能体能否正确完成任务?
文章

协同

人-智能体协同的信任研究人-智能体协同的信任研究精选
文章

人-智能体(Human-Agent)信任是一个非常有前沿性的研究方向,可以从"信"与"任"的维度进行有价值的拆解,如此一来,将对人-智能体协同研究框架顶层设计会很有帮助。
文章

具备

能力(Ability):智能体具备完成特定任务的技能与资源(对应Lee的“绩效”维度)。
文章

效果

即使智能体优化了单一目标,也可能因忽略其他目标而导致整体性能下降(如供应链优化中,智能体可能为了“降低成本”而选择“劣质原材料”,导致“质量”下降)。
文章

伦理与价值对齐是指智能体的行为需符合人类价值观(如“不伤害人类”、“公平”、“隐私保护”),而奖励函数无法准确表征这些“模糊的价值”,导致其“行为失范”。
文章

影响

善意(Benevolence):智能体的行为以用户利益为导向,而非仅追求自身目标(对应Lee的“目的”维度)。
文章

能力(Ability):智能体具备完成特定任务的技能与资源(对应Lee的“绩效”维度)。
文章

目的(Purpose):用户对智能体“目标是否与自身一致”的感知(如是否以用户利益为核心,而非隐藏议程)。
文章

其它

②意图可信度,具体表现为智能体是否"理解"我的目标?
文章

信(Belief/Confidence)——认知维度有三个核心问题:①能力可信度,具体表现为智能体能否正确完成任务?
文章

其它

与人人信任不同,人-智能体信任具有特殊性,HAT(Human-AgentTrust)常出现"信而不任"或"任而不信"的解耦现象:高信低任,如认可AI诊断能力,但坚持人工复核,往往源于责任归属焦虑、制度约束;
文章