<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh">
	<id>https://zh.lolipedia.org/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Yuqing</id>
	<title>萝莉百科 - 最萌的百科全书 - 用户贡献 [zh]</title>
	<link rel="self" type="application/atom+xml" href="https://zh.lolipedia.org/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Yuqing"/>
	<link rel="alternate" type="text/html" href="https://zh.lolipedia.org/Special:%E7%94%A8%E6%88%B7%E8%B4%A1%E7%8C%AE/Yuqing"/>
	<updated>2026-04-07T17:09:52Z</updated>
	<subtitle>用户贡献</subtitle>
	<generator>MediaWiki 1.44.0</generator>
	<entry>
		<id>https://zh.lolipedia.org/index.php?title=%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&amp;diff=17</id>
		<title>大语言模型</title>
		<link rel="alternate" type="text/html" href="https://zh.lolipedia.org/index.php?title=%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&amp;diff=17"/>
		<updated>2026-04-07T00:37:40Z</updated>

		<summary type="html">&lt;p&gt;Yuqing：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;大语言模型&#039;&#039;&#039;（Large Language Model，简称LLM）是一种基于深度学习的人工智能模型，专门用于处理、理解和生成人类语言。它通过在海量的文本数据上进行训练，学会了语言的统计规律和语义结构。目前的LLM已经能够实现流畅的多轮对话、代码编写以及复杂的逻辑推理。&lt;br /&gt;
&lt;br /&gt;
== 核心架构：Transformer ==&lt;br /&gt;
现代LLM大多基于&#039;&#039;&#039;Transformer&#039;&#039;&#039;架构。该架构引入了注意力机制（Attention Mechanism），使模型能够捕捉长距离的语义依赖。&lt;br /&gt;
&lt;br /&gt;
== 训练过程 ==&lt;br /&gt;
LLM的构建通常包含以下两个关键阶段：&lt;br /&gt;
# &#039;&#039;&#039;预训练（Pre-training）&#039;&#039;&#039;：模型在大规模的互联网文本语料库上进行无监督学习。&lt;br /&gt;
# &#039;&#039;&#039;指令微调（Instruction Tuning）&#039;&#039;&#039;：通过人类反馈强化学习等技术，教会模型如何准确理解并执行用户的指令。&lt;br /&gt;
&lt;br /&gt;
== 局限性：幻觉 ==&lt;br /&gt;
尽管LLM表现卓越，但仍存在幻觉现象，即模型可能会生成看似合理但完全错误的事实。&lt;br /&gt;
&lt;br /&gt;
== 应用领域 ==&lt;br /&gt;
LLM目前已广泛应用于多个前沿领域：&lt;br /&gt;
* &#039;&#039;&#039;智能交互&#039;&#039;&#039;：作为虚拟助手提供情感陪伴与信息查询。&lt;br /&gt;
* &#039;&#039;&#039;辅助开发&#039;&#039;&#039;：帮助工程师快速生成代码片段。&lt;br /&gt;
* &#039;&#039;&#039;内容创作&#039;&#039;&#039;：协助进行多语言翻译、文章撰写。&lt;br /&gt;
&lt;br /&gt;
== 参考资料 ==&lt;br /&gt;
# [https://arxiv.org/abs/1706.03762 Vaswani, A., et al. (2017). &#039;&#039;Attention Is All You Need&#039;&#039;].&lt;br /&gt;
# [https://openai.com/research/gpt-4 OpenAI. (2023). &#039;&#039;GPT-4 Technical Report&#039;&#039;].&lt;br /&gt;
# [https://stanford.io/3lgdH2N Bommasani, R., et al. (2021). &#039;&#039;On the Opportunities and Risks of Foundation Models&#039;&#039;].&lt;/div&gt;</summary>
		<author><name>Yuqing</name></author>
	</entry>
	<entry>
		<id>https://zh.lolipedia.org/index.php?title=%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&amp;diff=16</id>
		<title>大语言模型</title>
		<link rel="alternate" type="text/html" href="https://zh.lolipedia.org/index.php?title=%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&amp;diff=16"/>
		<updated>2026-04-07T00:07:00Z</updated>

		<summary type="html">&lt;p&gt;Yuqing：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;大语言模型&#039;&#039;&#039;（Large Language Model，简称LLM）是一种基于深度学习的人工智能模型，专门用于处理、理解和生成人类语言。它通过在海量的文本数据上进行训练，学会了语言规律和语义结构。目前的LLM已经能够实现流畅的多轮对话、代码编写以及复杂的逻辑推理。&lt;br /&gt;
&lt;br /&gt;
== 核心架构：Transformer ==&lt;br /&gt;
现代LLM大多基于&#039;&#039;&#039;Transformer&#039;&#039;&#039;架构。该的统计&lt;br /&gt;
的统计规律和语义结构。目前的LLM已经能够实现流畅的多轮对话、代码编写以及复杂的逻辑推理。&lt;br /&gt;
&lt;br /&gt;
== 核心架构：Transformer ==&lt;br /&gt;
现代LLM大多基于&#039;&#039;&#039;Transformer&#039;&#039;&#039;架构&lt;/div&gt;</summary>
		<author><name>Yuqing</name></author>
	</entry>
	<entry>
		<id>https://zh.lolipedia.org/index.php?title=%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&amp;diff=15</id>
		<title>大语言模型</title>
		<link rel="alternate" type="text/html" href="https://zh.lolipedia.org/index.php?title=%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&amp;diff=15"/>
		<updated>2026-04-07T00:02:46Z</updated>

		<summary type="html">&lt;p&gt;Yuqing：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;大语言模型&#039;&#039;&#039;（Large Language Model，简称LLM）是一种基于深度学习的人工智能模型，专门用于处理、理解和生成人类语言。它通过在海量的文本数据上进行训练，学会了语言规律和语义结构。目前的LLM已经能够实现流畅的多轮对话、代码编写以及复杂的逻辑推理。&lt;br /&gt;
&lt;br /&gt;
== 核心架构：Transformer ==&lt;br /&gt;
现代LLM大多基于&#039;&#039;&#039;Transformer&#039;&#039;&#039;架构。该的统计&lt;/div&gt;</summary>
		<author><name>Yuqing</name></author>
	</entry>
	<entry>
		<id>https://zh.lolipedia.org/index.php?title=%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&amp;diff=14</id>
		<title>大语言模型</title>
		<link rel="alternate" type="text/html" href="https://zh.lolipedia.org/index.php?title=%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&amp;diff=14"/>
		<updated>2026-04-06T23:49:17Z</updated>

		<summary type="html">&lt;p&gt;Yuqing：​清空全部内容&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Yuqing</name></author>
	</entry>
	<entry>
		<id>https://zh.lolipedia.org/index.php?title=%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&amp;diff=13</id>
		<title>大语言模型</title>
		<link rel="alternate" type="text/html" href="https://zh.lolipedia.org/index.php?title=%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&amp;diff=13"/>
		<updated>2026-04-06T23:44:03Z</updated>

		<summary type="html">&lt;p&gt;Yuqing：​创建页面，内容为“&amp;#039;&amp;#039;&amp;#039;大语言模型&amp;#039;&amp;#039;&amp;#039;（Large Language Model，简称LLM）是一种基于深度学习的人工智能模型，专门用于处理、理解和生成人类语言。它通过在海量的文本数据上进行训练，学会了语言的统计规律和语义结构。目前的LLM已经能够实现流畅的多轮对话、代码编写以及复杂的逻辑推理。  == 核心架构：Transformer == 现代LLM大多基于&amp;#039;&amp;#039;&amp;#039;Transformer&amp;#039;&amp;#039;&amp;#039;架构。该架构引入了注意力…”&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&#039;&#039;&#039;大语言模型&#039;&#039;&#039;（Large Language Model，简称LLM）是一种基于深度学习的人工智能模型，专门用于处理、理解和生成人类语言。它通过在海量的文本数据上进行训练，学会了语言的统计规律和语义结构。目前的LLM已经能够实现流畅的多轮对话、代码编写以及复杂的逻辑推理。&lt;br /&gt;
&lt;br /&gt;
== 核心架构：Transformer ==&lt;br /&gt;
现代LLM大多基于&#039;&#039;&#039;Transformer&#039;&#039;&#039;架构。该架构引入了注意力机制（Attention Mechanism），使模型能够捕捉长距离的语义依赖。&lt;br /&gt;
&lt;br /&gt;
== 训练过程 ==&lt;br /&gt;
LLM的构建通常包含以下两个关键阶段：&lt;br /&gt;
# &#039;&#039;&#039;预训练（Pre-training）&#039;&#039;&#039;：模型在大规模的互联网文本语料库上进行无监督学习。&lt;br /&gt;
# &#039;&#039;&#039;指令微调（Instruction Tuning）&#039;&#039;&#039;：通过人类反馈强化学习等技术，教会模型如何准确理解并执行用户的指令。&lt;br /&gt;
&lt;br /&gt;
== 局限性：幻觉 ==&lt;br /&gt;
尽管LLM表现卓越，但仍存在幻觉现象，即模型可能会生成看似合理但完全错误的事实。&lt;br /&gt;
&lt;br /&gt;
== 应用领域 ==&lt;br /&gt;
LLM目前已广泛应用于多个前沿领域：&lt;br /&gt;
* &#039;&#039;&#039;智能交互&#039;&#039;&#039;：作为虚拟助手提供情感陪伴与信息查询。&lt;br /&gt;
* &#039;&#039;&#039;辅助开发&#039;&#039;&#039;：帮助工程师快速生成代码片段。&lt;br /&gt;
* &#039;&#039;&#039;内容创作&#039;&#039;&#039;：协助进行多语言翻译、文章撰写。&lt;br /&gt;
&lt;br /&gt;
== 参考资料 ==&lt;br /&gt;
# Vaswani, A., et al. (2017). &#039;&#039;Attention Is All You Need&#039;&#039;.&lt;br /&gt;
# OpenAI. (2023). &#039;&#039;GPT-4 Technical Report&#039;&#039;.&lt;br /&gt;
# Bommasani, R., et al. (2021). &#039;&#039;On the Opportunities and Risks of Foundation Models&#039;&#039;.&lt;/div&gt;</summary>
		<author><name>Yuqing</name></author>
	</entry>
</feed>