avatar
文章
10
标签
5
分类
2
Home
Java
Python
Papers
LeetCode
To be or not to be
Home
Java
Python
Papers
LeetCode

To be or not to be

Towards Implicit Bias Detection and Mitigation in Multi-Agent LLM Interactions
更新于2025-07-13|Papers
收录于 EMNLP 构建一个有关隐形偏见的数据集 提出两种适用于隐形偏见的去偏方法
A Multi-Agent Probabilistic Inference Framework Inspired by Kairanban-Style CoT System with IdoBata Conversation for Debiasing
更新于2025-07-12|Papers
收录于 arxiv “受启于日本看板文化和井户端对话的多智能体概率推理框架,用于去偏见” 数据集:斯坦福情感树库(SST5)、推文评估(Tweet Eval)和金融短语库。 LLM:13B模型 METHOD Kairanban式链式推理(KCS):模拟日本社区公告板的顺序传阅机制,智能体依次对前序推理结果进行修正和补充,形成渐进式共识。 Idobata对话(IBC):引入类似邻里闲聊的非正式对话环节,鼓励少数观点和隐含语义的表达,打破形式化推理的局限性。 KCS 设代理由 i=0,…,N 索引,其中N是代理的总数。文档$D_0={R_0,S_0,P_0}$包含结果 R0 和一个假设 S0。在这里,S0 是一个保持提示结构作为“初始假设”的地方,并且故意固定以便不影响实际的推理过程。同样,P0 中的所有概率都设置为零作为占位符。 从步骤 i≥1 开始,每个代理人 A i收到前一个代理人输出的文档 Di-1,并通过获取其自身的分析结果 Ri、逻辑推理 Si和概率分布 Pi来更新它,按照以下表达式: $$ (R _i,S _i,P...
Mitigating Social Bias in Large Language Models: A Multi-Objective Approach Within a Multi-Agent Framework
更新于2025-07-12|Papers
收录于 AAAI2025 开源代码 数据集:Bias Benchmark for QA (BBQ)和StereoSet 模型:GPT-3.5-Turbo-0125和Llama-3-8B-Instruct Motivation 依赖白盒 LLMs 的技术(如数据增强、参数调优、解码策略等),虽有效但不适用于许多闭源 LLMs。 使用自然语言指令引导 LLMs 符合伦理,缺乏可解释性和透明度,且在解决偏见的范围上有局限,还常导致性能显著下降。 链式思维(CoT)方法虽能增强透明度和偏见处理范围,但可能无意中放大偏见;融入人类价值观或指令的方法也存在性能权衡问题。 METHOD MOMA...
Towards AI Search Paradigm
更新于2025-07-11|Papers
收录于 arxiv Abstract 本文介绍了“AI搜索范式”(AI Search Paradigm),这是一个面向下一代搜索引擎的全面蓝图,旨在模拟人类的信息处理与决策能力。该范式采用模块化架构,包含四个由大语言模型驱动的智能代理(Master、Planner、Executor 和 Writer),能够动态适应各种信息需求,从简单的事实性查询到复杂的多阶段推理任务。这些代理通过协调一致的工作流程进行协作,评估查询复杂度,将问题分解为可执行的计划,并调度工具使用、任务执行和内容生成。 AI搜索范式的核心代理角色 该范式包含四个关键代理: Master Agent(主控代理) :作为最初接触点,负责分析用户查询以评估其复杂度和意图。根据问题的性质和难度,Master动态协调并组建合适的后续代理团队。这是本范式区别于传统IR系统(仅采用静态查询理解模块)和RAG系统(初始查询分析通常导致固定处理流水线)的独特之处。此外,Master还持续评估下属代理的表现;在任务失败时,进行反思分析并指导团队重新规划与执行。 Planner...
RAGentA: Multi-Agent Retrieval-Augmented Generation for Attributed Question Answering
更新于2025-07-11|Papers
收录于 SIGIR 2025 Abstract 一个用于可归因问答(attributed question answering, QA)的多智能体检索增强生成(Retrieval-Augmented Generation, RAG)框架。以生成可信答案为目标,RAGentA 专注于优化答案的正确性,包括对问题的覆盖性和相关性,以及“忠实度”(faithfulness),即答案在多大程度上基于检索到的文档。 RAGentA 使用一种多智能体架构,通过迭代筛选检索文档、生成带有内联引用的答案,并通过动态优化验证其完整性。该框架的核心是一种结合稀疏与密集方法的混合检索策略,相比最佳单一检索模型,其 Recall@20 提升了 12.5%,从而产生更正确且有更好支持的答案。 主要工作: 提出了 RAGentA ,一个协同的多智能体 RAG 框架,通过细粒度归因提升答案的忠实度,尤其适用于多源问题。 通过结合稀疏与密集检索的方法确保高质量检索,并通过基于智能体的相关性评分选择最适合生成的文档。 构建了一个多样化的合成 QA 数据集,基于...
Causal Estimation of Memorisation Profiles
更新于2025-07-12|Papers
收录于 ACL 2024 best papers ...
Causal-Guided Active Learning for Debiasing Large Language Models
更新于2025-07-12|Papers
收录于 ACL Abstract 作者提出了一种因果引导的主动学习框架(Causal-Guided Active Learning,CAL),框架利用LLM自身,自动且自主的识别信息量丰富的的偏见样本并归纳偏见模式,随后采用一种高效且低成本的基于上下文学习(ICL)方法,在生成过程中防止LLM利用数据集偏见。 主动学习旨在选择最具信息量的样本,并查询外部信息源对其标注。在去偏场景中,CAL通过寻找模型无法建模因果不变语义关系的样本来识别偏见实例,然后通过发现数据集偏见对LLM生成影响最大的样本,选取最具信息量的偏见实例。 Dataset: Chatbot、MT-Bench...
Information Gain-Guided Causal Intervention for Autonomous Debiasing Large Language Models
更新于2025-07-11|Papers
收录于 arxiv Abstract 本文主要工作: 提出信息增益引导的因果干预去偏框架(information gain-guided causal intervention debiasing,ICD),为消除指令微调数据集中的偏差,必须确保这些偏差特征对预测答案不提供任何附加信息,即令偏差特征的信息增益为0 。框架利用基于因果干预的数据重写方法,自动并自主地平衡指令微调数据集的分布,降低信息增益。在去偏后的数据集上采用标准监督微调流程训练LLM。 Dataset: Llama3.1-8B、部分 Flan 2021、MMLU 、BBH 、TruthfulQA Baseline: Vanilla SFT、Razor LLM: Llama3.1-8B Gemma-9B 评估方法: In-Domain Test Sets、Transfer Test Sets、Challenge Test...
Position Debiasing Fine-Tuning for Causal Perception in Long-Term Dialogue
更新于2025-07-11|Papers
收录于 IJCAI 2024 Abstract 本文提出了一种 因果感知的长对话框架(Causal Perception long-term Dialogue framework, CPD)用于解决在长对话中llm的位置偏差(Position Bias,指在模型在处理输入序列时,倾向于优先关注某些特定位置的信息,而忽视其他位置的重要内容,在长文本或对话任务中尤为明显)。这一偏差导致模型过度地关注虚假的位置相关性,而非真正的因果相关的话语。 主要工作: 提出一种基于因果扰动的话语提取方法,结合局部位置感知机制,能够有效避免LLM的位置信息干扰 提出一种因果感知微调策略,显著缓解模型的“位置偏差”问题,提升模型在对话中捕捉因果关系的能力 baseline: dataset:CGDIALOG、 ESConv、MSC 基础模型:Llama2-7B-chat、Qwen-14B-chat Method 处理效应(Treatment...
面向对象-方法
更新于2025-07-11|Java
面向对象基础 “在面向对象中,方法是对象的行为,它们依附于对象,通过对象来调用,而不是独立存在的。” 构造方法 为了保护class中的数据,避免被直接修改,出现如超出范围之类的错误,我们可以使用private字段对属性进行限制。 1234class Person{ private String name; private int age;} 使用private进行限制的属性,我们可以使用在同一个class中定义的方法来实现对类中private属性的变量进行控制,如 1234567891011121314151617181920212223242526272829303132public class Main { public static void main(String[] args) { Person ming = new Person(); ming.setName("Xiao Ming"); // 设置name ming.setAge(12); // 设置age ...
1
avatar
Anifled
我与我 周旋久
文章
10
标签
5
分类
2
Follow Me
公告
This is my Blog
最新文章
Towards Implicit Bias Detection and Mitigation in Multi-Agent LLM Interactions
Towards Implicit Bias Detection and Mitigation in Multi-Agent LLM Interactions2025-07-12
A Multi-Agent Probabilistic Inference Framework Inspired by Kairanban-Style CoT System with IdoBata Conversation for Debiasing
A Multi-Agent Probabilistic Inference Framework Inspired by Kairanban-Style CoT System with IdoBata Conversation for Debiasing2025-07-11
Mitigating Social Bias in Large Language Models: A Multi-Objective Approach Within a Multi-Agent Framework
Mitigating Social Bias in Large Language Models: A Multi-Objective Approach Within a Multi-Agent Framework2025-07-10
Towards AI Search Paradigm
Towards AI Search Paradigm2025-06-24
RAGentA: Multi-Agent Retrieval-Augmented Generation for Attributed Question Answering
RAGentA: Multi-Agent Retrieval-Augmented Generation for Attributed Question Answering2025-06-23
分类
  • Java1
  • Papers9
标签
入门 Java multi-agent multi agent causal debias
归档
  • 七月 2025 3
  • 六月 2025 7
网站信息
文章数目 :
10
本站访客数 :
本站总浏览量 :
最后更新时间 :
©2025 By Anifled
框架 Hexo 7.3.0|主题 Butterfly 5.3.5
作者:anifled,转载请注明作者。GitHub