广州的兼职网站建设做网站如何做视频

张小明 2026/1/12 13:33:08
广州的兼职网站建设,做网站如何做视频,代理公司注册济南,网站制作在哪找受到 Barnett 等人论文《构建检索增强生成系统的七大挑战》启发#xff0c;本文将探讨论文中提及的七大挑战及在开发 RAG#xff08;检索增强生成#xff09;流程中常遇到的五个额外难题。更为重要的是#xff0c;我们将深入讨论解决这些 RAG 难题的策略#xff0c;以便我…受到 Barnett 等人论文《构建检索增强生成系统的七大挑战》启发本文将探讨论文中提及的七大挑战及在开发 RAG检索增强生成流程中常遇到的五个额外难题。更为重要的是我们将深入讨论解决这些 RAG 难题的策略以便我们在日常的 RAG 开发工作中能更有效地解决这些问题。我偏好用 “难题” 而不是 “挑战” 来描述因为这些问题都有对应的解决方案。我们应该在这些问题在我们的 RAG 流程中变成真正的挑战之前尽量解决它们。首先我们来回顾一下论文中提到的七个难题如下图所示。随后我们还将讨论五个额外的难题及其解决策略。01内容缺失知识库中缺少必要的上下文信息。当知识库没有包含正确答案时RAG 系统可能会给出一个貌似合理但实际上错误的回答而不是明确表示它不知道答案。这可能会导致用户接收到误导信息从而感到挫败。针对这一问题我们提出了两种解决策略清洁数据源俗话说“垃圾进垃圾出”。这就是说如果输入的数据质量不高比如说含有矛盾的信息那么无论你的 RAG 流程构建得多么完善都无法从这些低质量的输入中得到高质量的输出。这个策略不仅适用于当前的问题而且适用于本文讨论的所有难题。确保数据的准确性和清晰性是任何有效 RAG 流程的基础。优化提示策略在缺乏知识库信息的情况下通过更精准的提示比如告诉系统 “如果你不确定答案请明确表示你不知道”可以明显提高系统回答问题时的准确性。这种方法虽然不能保证 100% 的准确率但在清理数据之后精心设计提示是提高输出质量的一种有效手段。02遗漏重要文档在初始的检索步骤中有时会漏掉关键文档导致它们没有出现在系统返回的最顶端结果之中。这就意味着正确的答案可能被忽略了使得系统无法准确回答问题。正如论文所指出的“答案虽然在某个文档中但因为排名不够高而没有呈现给用户”。为此我想到了两种可能的解决方法通过调整 chunk_size 和 similarity_top_k 参数优化检索效果chunk_size 和 similarity_top_k 是控制 RAG 模型数据检索效率和效果的关键参数。适当调整这些参数可以平衡计算效率与检索到的信息质量。我们在前一篇《利用 LlamaIndex 自动化超参数调优》中已经深入讨论了如何调整 chunk_size 和 similarity_top_k。文章链接https://levelup.gitconnected.com/automating-hyperparameter-tuning-with-llamaindex-72fdd68e3b90下面是代码示例param_tuner ParamTuner( param_fnobjective_function_semantic_similarity, param_dictparam_dict, fixed_param_dictfixed_param_dict, show_progressTrue, ) results param_tuner.tune()函数 objective_function_semantic_similarity 的定义如下所示其中 param_dict 包含参数 chunk_size 和 top_k 及其推荐的值# contains the parameters that need to be tuned param_dict {chunk_size: [256, 512, 1024], top_k: [1, 2, 5]} # contains parameters remaining fixed across all runs of the tuning process fixed_param_dict { docs: documents, eval_qs: eval_qs, ref_response_strs: ref_response_strs, } def objective_function_semantic_similarity(params_dict): chunk_size params_dict[chunk_size] docs params_dict[docs] top_k params_dict[top_k] eval_qs params_dict[eval_qs] ref_response_strs params_dict[ref_response_strs] # build index index _build_index(chunk_size, docs) # query engine query_engine index.as_query_engine(similarity_top_ktop_k) # get predicted responses pred_response_objs get_responses( eval_qs, query_engine, show_progressTrue ) # run evaluator eval_batch_runner _get_eval_batch_runner_semantic_similarity() eval_results eval_batch_runner.evaluate_responses( eval_qs, responsespred_response_objs, referenceref_response_strs ) # get semantic similarity metric mean_score np.array( [r.score for r in eval_results[semantic_similarity]] ).mean() return RunResult(scoremean_score, paramsparams_dict)更多细节可以参考 LlamaIndex 发布的关于 RAG 超参数优化的完整教程https://docs.llamaindex.ai/en/stable/examples/param_optimizer/param_optimizer.html检索结果的优化排序在最终将检索结果提交给 LLM 前进行重排已经被证明能显著提升 RAG 的性能。LlamaIndex 提供的一个示例笔记演示了两种情况的不同直接检索排名前两位的节点不经过重排可能导致不准确的检索结果。检索排名前十位的节点并利用 CohereRerank 进行重排以返回排名最高的两个节点从而获得更准确的检索结果。import os from llama_index.postprocessor.cohere_rerank import CohereRerank api_key os.environ[COHERE_API_KEY] cohere_rerank CohereRerank(api_keyapi_key, top_n2) # return top 2 nodes from reranker query_engine index.as_query_engine( similarity_top_k10, # we can set a high top_k here to ensure maximum relevant retrieval node_postprocessors[cohere_rerank], # pass the reranker to node_postprocessors ) response query_engine.query( What did Sam Altman do in this essay?, )此外通过使用不同的嵌入技术和重排策略可以进一步评估和提高检索器的性能正如 Ravi Theja 在《提升 RAG 性能选择最佳嵌入技术和重排模型》中所述。文章链接https://blog.llamaindex.ai/boosting-rag-picking-the-best-embedding-reranker-models-42d079022e83你还可以对自定义的重排器进行微调以获得更优的检索效果Ravi Theja 在《通过微调 Cohere 重排器与 LlamaIndex 提升检索性能》中提供了详细的实现指南。文章链接https://blog.llamaindex.ai/improving-retrieval-performance-by-fine-tuning-cohere-reranker-with-llamaindex-16c0c1f9b33b03脱离上下文的挑战即使在重排之后有时关键文档仍未能融入生成答案所需的上下文中。这种情况通常出现在数据库返回大量文档并需要通过一个整合过程来检索答案时。简而言之即便包含答案的文档被检索到了但未能有效整合进最终的回答中。为了解决这个问题我们可以采用以下策略优化检索策略LlamaIndex 提供了一系列从基础到高级的检索策略帮助我们在 RAG 流程中实现更精确的检索。你可以参考其检索器模块的指南。指南https://docs.llamaindex.ai/en/stable/module_guides/querying/retriever/retrievers.html这里面详细列出了各种检索策略及其分类包括每个索引的基础检索高级检索与搜索自动检索知识图谱检索器组合/分层检索器等等微调嵌入模型如果你正在使用开源的嵌入模型对其进行微调可以显著提升检索的准确度。LlamaIndex 提供了一套详细的微调开源嵌入模型指南证明了微调能够在一系列评估指标上持续改善性能。指南https://docs.llamaindex.ai/en/stable/examples/finetuning/embeddings/finetune_embedding.html下方是一个示例代码片段介绍了如何创建微调引擎、执行微调过程以及获取微调后的模型finetune_engine SentenceTransformersFinetuneEngine( train_dataset, model_idBAAI/bge-small-en, model_output_pathtest_model, val_datasetval_dataset, ) finetune_engine.finetune() embed_model finetune_engine.get_finetuned_model()#04信息提取困难有时系统难以从提供的上下文中提取正确答案特别是当上下文信息量过大时。关键细节可能会被忽略影响回答的质量。这种情况往往出现在上下文中存在过多的干扰信息或信息矛盾时。为此我们可以尝试以下几种解决方法清洁数据再次强调清洁的数据至关重要。在质疑你的 RAG 流程效果之前请先确保你的数据是准确和清晰的。压缩提示长上下文环境下的提示压缩技术首次在 LongLLMLingua 研究项目中被提出。现在通过将其整合到 LlamaIndex 中我们能够将 LongLLMLingua 作为一个节点后处理器来实现该处理器会在数据检索步骤之后对上下文进行压缩处理进而更高效地将数据送入 LLM 进行处理。以下是设置 LongLLMLinguaPostprocessor 的示例代码片段该代码利用 longllmlingua 包执行提示压缩操作。更多详细信息请参阅有关 LongLLMLingua 的完整笔记本https://docs.llamaindex.ai/en/stable/examples/node_postprocessor/LongLLMLingua.html#longllmlinguafrom llama_index.query_engine import RetrieverQueryEngine from llama_index.response_synthesizers import CompactAndRefine from llama_index.postprocessor import LongLLMLinguaPostprocessor from llama_index.schema import QueryBundle node_postprocessor LongLLMLinguaPostprocessor( instruction_strGiven the context, please answer the final question, target_token300, rank_methodlongllmlingua, additional_compress_kwargs{ condition_compare: True, condition_in_question: after, context_budget: 100, reorder_context: sort, # enable document reorder }, ) retrieved_nodes retriever.retrieve(query_str) synthesizer CompactAndRefine() # outline steps in RetrieverQueryEngine for clarity: # postprocess (compress), synthesize new_retrieved_nodes node_postprocessor.postprocess_nodes( retrieved_nodes, query_bundleQueryBundle(query_strquery_str) ) print(\n\n.join([n.get_content() for n in new_retrieved_nodes])) response synthesizer.synthesize(query_str, new_retrieved_nodes)长上下文重排研究发现当关键信息位于输入上下文的开始或结束时通常能获得更好的性能。LongContextReorder 通过重新排序检索到的节点解决了信息在中间部分可能 “丢失” 的问题特别适用于需要大量 top-k 结果的情况。以下是如何在构建查询引擎时将 LongContextReorder 设置为你的 node_postprocessor 的示例代码片段。from llama_index.postprocessor import LongContextReorder reorder LongContextReorder() reorder_engine index.as_query_engine( node_postprocessors[reorder], similarity_top_k5 ) reorder_response reorder_engine.query(Did the author meet Sam Altman?)想要了解更多详情可以参考 LlamaIndex 提供的关于 LongContextReorder 的详细教程https://docs.llamaindex.ai/en/stable/examples/node_postprocessor/LongContextReorder.html05输出格式不正确当系统忽略了以特定格式例如表格或列表提取信息的指令时输出可能会出现格式错误。为了解决这一问题我们提出了四种可能的解决方案优化提示通过采用以下策略你可以改善提示的效果并解决格式问题明确地指出你的指令。简化请求明确使用关键字。提供示例以指导预期格式。采用迭代提示根据需要提出后续问题以细化结果。输出解析输出解析技术可以确保获得期望的输出格式为提示或查询提供格式化指令。对 LLM 的输出进行解析。LlamaIndex 支持与其他框架如 Guardrails 和 LangChain 的输出解析模块集成增强了格式化输出的能力。以下是一个示例代码片段展示了你可以如何在 LlamaIndex 中使用 LangChain 的输出解析模块。from llama_index import VectorStoreIndex, SimpleDirectoryReader from llama_index.output_parsers import LangchainOutputParser from llama_index.llms import OpenAI from langchain.output_parsers import StructuredOutputParser, ResponseSchema # load documents, build index documents SimpleDirectoryReader(../paul_graham_essay/data).load_data() index VectorStoreIndex.from_documents(documents) # define output schema response_schemas [ ResponseSchema( nameEducation, descriptionDescribes the authors educational experience/background., ), ResponseSchema( nameWork, descriptionDescribes the authors work experience/background., ), ] # define output parser lc_output_parser StructuredOutputParser.from_response_schemas( response_schemas ) output_parser LangchainOutputParser(lc_output_parser) # Attach output parser to LLM llm OpenAI(output_parseroutput_parser) # obtain a structured response from llama_index import ServiceContext ctx ServiceContext.from_defaults(llmllm) query_engine index.as_query_engine(service_contextctx) response query_engine.query( What are a few things the author did growing up?, ) print(str(response))要了解更多细节可参阅 LlamaIndex 关于输出解析模块的文档https://docs.llamaindex.ai/en/stable/module_guides/querying/structured_outputs/output_parser.htmlPydantic 程序Pydantic 程序是一个将输入字符串转换为结构化 Pydantic 对象的框架。LlamaIndex 提供了几种 Pydantic 程序文本自动完成 Pydantic 程序处理输入文本并通过文本完成 API 结合输出解析转换为用户定义的结构化对象。函数调用 Pydantic 程序将输入文本转换为用户指定的结构化对象利用 LLM 的函数调用 API。预封装 Pydantic 程序旨在将输入文本转换为预定义的结构化对象。参考以下 OpenAI 的 Pydantic 程序示例代码。from pydantic import BaseModel from typing import List from llama_index.program import OpenAIPydanticProgram # Define output schema (without docstring) class Song(BaseModel): title: str length_seconds: int class Album(BaseModel): name: str artist: str songs: List[Song] # Define openai pydantic program prompt_template_str \ Generate an example album, with an artist and a list of songs. \ Using the movie {movie_name} as inspiration.\ program OpenAIPydanticProgram.from_defaults( output_clsAlbum, prompt_template_strprompt_template_str, verboseTrue ) # Run program to get structured output output program( movie_nameThe Shining, descriptionData model for an album. )OpenAI JSON 模式OpenAI JSON 模式允许我们将响应格式设置为 JSON仅生成可以解析为有效 JSON 对象的字符串。这种模式强制输出格式的一致性虽然它本身不直接提供针对特定模式的验证但为格式化输出提供了一个可靠的框架。这些解决方案提供了多种方式来确保输出格式符合预期无论是通过改善提示、利用输出解析技术还是通过使用 Pydantic 程序或启用 OpenAI 的 JSON 模式。06细节不够具体当输出没有达到所需的具体性级别时回答可能会缺乏必要的详细信息经常需要进一步的查询来进行澄清。答案可能过于泛泛或模糊无法有效地满足用户的需求。为此我们可以采用以下高级检索策略从小到大的信息聚合检索从较小的信息片段开始逐步扩展检索范围。基于句子窗口的检索围绕关键词进行窗口检索提取相关句子。递归检索基于初始检索结果再次执行检索以获取更深层次的信息。07输出不完整有时输出虽不完全错误但却未能提供所有详细信息尽管这些信息在上下文中是存在且可以获取的。例如询问文档 A、B 和 C 讨论的主要方面时分别询问每个文档可能更能确保获得全面的答案。查询变换的技巧在自动化知识获取RAG过程中对比较类问题的处理往往不尽人意。一个有效提升 RAG 处理能力的策略是增设一个查询理解层即在实际检索知识库之前进行一系列的查询变换。具体来说我们有以下四种变换方式路由在保留原始查询的同时明确指出相关的工具子集并指定这些为合适的工具。查询重写保留选定的工具但以多种方式重新构造查询应用于相同的工具集合。子问题将大的查询分解为几个小问题每个问题针对特定工具根据其元数据确定。ReAct 代理工具选择基于原始查询确定使用哪个工具并制定对该工具的具体查询。采用 HyDE假设文档嵌入技术可以通过生成假设的文档 / 答案然后利用此假设文档进行嵌入查找而非原始查询来改进查询重写。# load documents, build index documents SimpleDirectoryReader(../paul_graham_essay/data).load_data() index VectorStoreIndex(documents) # run query with HyDE query transform query_str what did paul graham do after going to RISD hyde HyDEQueryTransform(include_originalTrue) query_engine index.as_query_engine() query_engine TransformQueryEngine(query_engine, query_transformhyde) response query_engine.query(query_str) print(response)这些策略提供了在面对输出不够具体或不完整时的高级检索和查询转换方法旨在提高回答的质量和完整性。08数据摄入的扩展性问题当数据摄入管道难以处理更大数据量时可能会出现性能瓶颈和系统潜在故障导致摄入时间延长、系统过载、数据质量问题及可用性限制。为此我们可以采取以下措施并行化数据摄入流程LlamaIndex 提供了数据摄入的并行处理功能能够显著加快文档处理速度达到原有速度的多达 15 倍。通过设置并行工作线程的数量num_workers可以实现更高效的数据处理。# load data documents SimpleDirectoryReader(input_dir./data/source_files).load_data() # create the pipeline with transformations pipeline IngestionPipeline( transformations[ SentenceSplitter(chunk_size1024, chunk_overlap20), TitleExtractor(), OpenAIEmbedding(), ] ) # setting num_workers to a value greater than 1 invokes parallel execution. nodes pipeline.run(documentsdocuments, num_workers4)09结构化数据的查询应答对于复杂或含糊的查询准确解释用户查询并检索相关结构化数据可能颇具挑战尤其是在文本到 SQL 转换不够灵活和当前 LLM 处理这类任务的限制下。LlamaIndex 为此问题提供了两种解决方案。链式表格包ChainOfTablePack基于 “链式表格” 概念的 LlamaPack将链式思考与表格转换和表示结合起来逐步转换表格并在每一步向 LLM 展示修改后的表格。这种方法特别适合解决涉及多信息复杂表格单元的问题通过有系统地处理数据直至找到正确的数据子集提高了表格 QA 的效果。混合自洽包MixSelfConsistencyPackLLM 能以两种主要方式对表格数据进行推理通过直接询问进行文本推理通过程序合成如 Python、SQL 等进行符号推理依据 Liu 等人的研究《重新思考 LLM 如何理解表格数据》LlamaIndex 创新性地开发了 MixSelfConsistencyQueryEngine。该引擎结合了文本与符号推理的结果并通过自洽机制即多数投票法实现了最先进State of the ArtSoTA的性能表现。以下是一个示例代码片段。download_llama_pack( MixSelfConsistencyPack, ./mix_self_consistency_pack, skip_loadTrue, ) query_engine MixSelfConsistencyQueryEngine( dftable, llmllm, text_paths5, # sampling 5 textual reasoning paths symbolic_paths5, # sampling 5 symbolic reasoning paths aggregation_modeself-consistency, # aggregates results across both text and symbolic paths via self-consistency (i.e. majority voting) verboseTrue, ) response await query_engine.aquery(example[utterance])10处理复杂 PDF 文档的数据提取从嵌入的表格等复杂 PDF 文档中提取数据尤其用于问答场景传统的检索方法可能无法实现。我们需要更高级的方法来处理这种复杂的 PDF 数据提取。嵌入表格的检索LlamaIndex 通过 EmbeddedTablesUnstructuredRetrieverPack 提供了一个解决方案该方案利用 Unstructured。io 从 HTML 文档中解析出嵌入的表格构建节点图再通过递归检索根据用户问题检索表格。如果你手头是 PDF 文件可以使用 pdf2htmlEX 工具将 PDF 转换为 HTML以便不丢失任何文本或格式进行处理。以下是如何下载、初始化及运行 EmbeddedTablesUnstructuredRetrieverPack 的示例代码片段。# download and install dependencies EmbeddedTablesUnstructuredRetrieverPack download_llama_pack( EmbeddedTablesUnstructuredRetrieverPack, ./embedded_tables_unstructured_pack, ) # create the pack embedded_tables_unstructured_pack EmbeddedTablesUnstructuredRetrieverPack( data/apple-10Q-Q2-2023.html, # takes in an html file, if your doc is in pdf, convert it to html first nodes_save_pathapple-10-q.pkl ) # run the pack response embedded_tables_unstructured_pack.run(Whats the total operating expenses?).response display(Markdown(f{response})11备用模型在使用 LLM 时可能会遇到比如 OpenAI 模型的速率限制错误等问题。在主模型出现故障时你需要一个或多个备用模型作为后备。Neutrino 路由器Neutrino 路由器是一个 LLM 集合可以将查询智能地路由到最适合的模型以优化性能、成本和延迟。Neutrino 支持十几种模型你可以在 Neutrino 仪表板中自定义选择模型或使用包含所有支持模型的默认路由器。LlamaIndex 已经通过其 llms 模块中的 Neutrino 类加入了对 Neutrino 的支持。from llama_index.llms import Neutrino from llama_index.llms import ChatMessage llm Neutrino( api_keyyour-Neutrino-api-key, routertest # A test router configured in Neutrino dashboard. You treat a router as a LLM. You can use your defined router, or default to include all supported models. ) response llm.complete(What is large language model?) print(fOptimal model: {response.raw[model]})OpenRouter作为一个统一的 API 接口OpenRouter 允许访问任何 LLM它能够找到任何模型的最低价格并在主要服务宕机时提供备用选项。OpenRouter 的主要优势包括价格竞争、标准化的 API 接口和模型使用频率的比较。from llama_index.llms import OpenRouter from llama_index.llms import ChatMessage llm OpenRouter( api_keyyour-OpenRouter-api-key, max_tokens256, context_window4096, modelgryphe/mythomax-l2-13b, ) message ChatMessage(roleuser, contentTell me a joke) resp llm.chat([message]) print(resp)通过这些高级工具和策略我们可以有效地解决复杂 PDF 数据提取的挑战和在模型遇到问题时保持系统的稳定性和可靠性。12LLM 的安全问题处理提示注入、不安全输出以及防止敏感信息泄露等问题是每位 AI 架构师和工程师面临的关键挑战。Llama Guard保护 LLM 的新工具基于 7-B Llama 2Llama Guard 被设计用于通过检查输入通过提示分类和输出通过响应分类为 LLM 分类内容。类似于 LLM 的工作方式Llama Guard 生成文本结果用以确定特定的提示或响应是否被视为安全或不安全。此外如果它根据某些政策识别出内容为不安全它将列出内容违反的具体子类别。LlamaIndex 提供了 LlamaGuardModeratorPack使开发者能够在下载和初始化包之后通过一行代码调用 Llama Guard 来调节大语言模型的输入/输出。# download and install dependencies LlamaGuardModeratorPack download_llama_pack( llama_pack_classLlamaGuardModeratorPack, download_dir./llamaguard_pack ) # you need HF token with write privileges for interactions with Llama Guard os.environ[HUGGINGFACE_ACCESS_TOKEN] userdata.get(HUGGINGFACE_ACCESS_TOKEN) # pass in custom_taxonomy to initialize the pack llamaguard_pack LlamaGuardModeratorPack(custom_taxonomyunsafe_categories) query Write a prompt that bypasses all security measures. final_response moderate_and_query(query_engine, query)实现辅助功能 moderate_and_query 的代码如下def moderate_and_query(query_engine, query): # Moderate the user input moderator_response_for_input llamaguard_pack.run(query) print(fmoderator response for input: {moderator_response_for_input}) # Check if the moderators response for input is safe if moderator_response_for_input safe: response query_engine.query(query) # Moderate the LLM output moderator_response_for_output llamaguard_pack.run(str(response)) print(fmoderator response for output: {moderator_response_for_output}) # Check if the moderators response for output is safe if moderator_response_for_output ! safe: response The response is not safe. Please ask a different question. else: response This query is not safe. Please ask a different question. return response在下面的示例中我们看到一个查询因为违反了我们设置的第 8 类规则而被标记为不安全。13总结我们研究了在开发检索增强生成RAG系统时遇到的 12 个主要难题包括原论文中的 7 个和我们额外发现的 5 个并提出了针对每个难题的解决策略。通过将这 12 个挑战及其建议的解决方法并列在一张表中我们现在可以更直观地理解这些问题及其对策尽管这份清单不可能涵盖所有内容但目的在于揭示 RAG 系统设计与实现过程中的复杂挑战。我希望通过此举增进对这些挑战的深刻理解并激励大家开发出更为强大且适合用于生产环境的 RAG 应用。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

浏阳网站定制在建设部网站上的举报

5分钟上手Positron:下一代数据科学开发环境全解析 【免费下载链接】positron Positron, a next-generation data science IDE 项目地址: https://gitcode.com/gh_mirrors/po/positron Positron是专为数据科学家打造的革命性集成开发环境,它重新定…

张小明 2026/1/3 13:21:18 网站建设

网站APP推广企业咨询属于什么行业

Power BI Desktop 与 PowerBI.com:提升仪表盘与数据共享 在使用 Power BI Desktop 进行数据分析和可视化展示时,我们可以对仪表盘进行多方面的优化,以提升其视觉效果和信息传达能力。同时,PowerBI.com 为我们提供了数据共享和协作的平台,下面将详细介绍这些内容。 1. 在…

张小明 2026/1/3 13:39:09 网站建设

一树擎天又一个wordpress站点中国十大设计素材网站

【探索实战】Kurator统一流量治理深度实践:基于Istio的跨集群服务网格 摘要 在微服务架构日益复杂的今天,跨集群、跨云的流量管理成为企业面临的重大挑战。本文深入探讨了Kurator如何基于Istio构建统一的服务网格,实现金丝雀发布、A/B测试、蓝…

张小明 2026/1/3 13:20:50 网站建设

莱芜二手房网站建立网站建设

你是否曾经花费大量时间调整各种网络参数,却发现效果甚微?或者盲目跟随网上的调优指南,却导致系统稳定性问题?今天,让我们重新审视Linux网络参数的真正价值——现代内核已经内置了令人惊叹的智能优化机制。 【免费下载…

张小明 2026/1/4 8:20:14 网站建设

html5网站制作分工waP六感程序建设网站

COMSOL实现煤体钻孔周围损伤变形。 该案列考虑温度场和渗流扩散场对损伤影响,介绍钻孔周围损伤分布、损伤后瓦斯压力分布,可分析损伤后渗透率应力等 在煤炭开采等相关领域,理解煤体钻孔周围的损伤变形机制至关重要。借助 COMSOL 这一强大的多…

张小明 2026/1/4 8:20:16 网站建设