AI

【信息抽取 & LLM】大模型结构化输出控制技巧及简历信息抽取结构化实践

前言在使用大模型进行信息抽取任务时,如何使得大模型的输出结果更加可控、稳定(输出稳定的json等)非常重要,这关系到抽取的数据后期开发使用。常见的方法...

让LLM“遗忘”特定知识

一.   综述随着大规模语言模型(Large Language Models, LLMs)的广泛应用,隐私问题日益凸显。这些模型在训练过程中难免会记住并泄露敏感信息,如...

AI Agent框架(LLM Agent):LLM驱动的智能体如何引领行业变革,应用探索与未来展望

AI Agent框架(LLM Agent):LLM驱动的智能体如何引领行业变革,应用探索与未来展望1. AI Agent(LLM Agent)介绍1.1. 术语Agent:“代理” 通常是指有意行动的...

煤矿安全大模型:微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答

煤矿安全大模型————矿途智护者使用煤矿历史事故案例,事故处理报告、安全规程规章制度、技术文档、煤矿从业人员入职考试题库等数据,微调internlm2模型实现针...

G.O.S.S.I.P 阅读推荐 2024-06-26 Byzantine-Robust DFL

今天为大家推荐的论文Byzantine-Robust Decentralized Federated Learning来自路易斯维尔大学投稿,是作者发表在CCS 2024上的最新工作。背景介绍Federated le...

RAG实践|Rerank如何提升LLM查询效率与准确性

      本文的核心议题是RAG中Rerank技术及其在提升语言模型(LLM)查询效率与准确性方面的应用。Rerank策略能够在不削弱查询精确度的前提下,...

【公益译文】大语言模型安全测试方法

一前言世界数字技术院(WDTA)开发和发布了“大语言模型安全测试方法”,这表明相关人员始终致力于推进关键进展,保证人工智能技术的可信和安全使用。大语言模...

请勿用于非法用途!切除Qwen安全审查记录!给LLM动手术!生成任何想要的内容!适用所有大模型!

hi~众所周知!训练+微调大模型,做的,都是加法!为了确保大模型生成的文本,安全!绝大部分的LLM开发商,都会给大模型上各种“锁”!举例!医疗领域提问:“我...

[安全问答] 01.AI双非研0如何从事AI安全研究

“2024年4月28日是Eastmount的安全星球 —— 『网络攻防和AI安全之家』正式创建和运营的日子,该星球目前主营业务为 安全零基础答疑、安全技术分享、AI安全技术...

北京交通大学 | 图提示学习中跨上下文后门攻击

原文标题:Cross-Context Backdoor Attacks against Graph Prompt Learning原文作者:吕晓婷;韩宇飞;王伟;钱航薇;Ivor Tsang;张响亮发表会议:SIGKDD 20...
1 2 3 28