如何使用ftp上传网站北京seo教师

张小明 2026/1/12 6:42:57
如何使用ftp上传网站,北京seo教师,做阿里巴巴企业网站,设计之家官网入口简介 Google最新发布的Gemini 3 Pro模型凭借卓越的多模态理解、复杂推理和编程能力#xff0c;在多项AI评测中表现领先。本文详细介绍了该模型的实战应用#xff0c;包括多模态理解、复杂任务规划和交互式UI生成等场景#xff0c;并提供了基于Milvus和Gemini 3 Pro构建企业…简介Google最新发布的Gemini 3 Pro模型凭借卓越的多模态理解、复杂推理和编程能力在多项AI评测中表现领先。本文详细介绍了该模型的实战应用包括多模态理解、复杂任务规划和交互式UI生成等场景并提供了基于Milvus和Gemini 3 Pro构建企业知识库的完整RAG教程。同时文章还介绍了Google Antigravity这一AI编程平台为开发者提供了学习大模型技术的实用资源和路径。最大的亮点或许是Google Antigravity就在昨天晚上Gemini 3 Pro 正式发布了。作为迄今为止最强推理最强多模态理解以及最强智能体和vibe coding的模型Gemini 3 Pro只发了一篇博客就掀翻了Hacker News, Reddit等平台讨论区就连OpenAI CEO奥特曼也亲自发推祝贺是的用了这么多最字但并不违反广告法。因为这是Gemini 3 Pro 的综合表现除 在解决真实 GitHub 问题SWE-Bench Verified榜单表现略逊于 GPT-5.1和CLaude Sonnet 4.5之外Gemini 3 Pro 在其余核心评测中全面领先 学术推理Humanity’s Last Exam无工具 37.5%工具加持达 45.8%远超第二名 26.5%数学竞赛MathArena Apex23.4% 的得分对手均不足 2%屏幕理解ScreenSpot-Pro72.7% 的准确率大幅领先竞品最高 36.2%长程任务Vending-Bench 2平均净值 5478.16 美元是第二名的 1.4 倍。那么实际体验如何如何将其落地企业知识库本文将一一解读。一、实测Gemini 3 Pro 此次重点更新的能力主要有四方面多模态与推理在抽象推理ARC-AGI-2、跨模态理解MMMU-Pro、视频知识获取Video-MMMU等场景表现断层领先深度思考模式Deep Think可进一步提升复杂任务准确率。编程与生成能力支持一句话生成交互式 SVG、网页、3D 模型、游戏如《我的世界》复刻、台球游戏甚至类 Windows Web OS前端开发效率极高还能精准复刻网页设计或根据截图转代码。Agent 与工具调用授权后可调动谷歌设备数据完成行程规划、租车预订等长程任务Vending-Bench 2 项目表现顶尖支持终端编码、工具使用等专业场景。生成式UI创新未来将推出动态交互界面替代传统 “一问一答” 模式如生成可交互的旅行规划方案。基于以上能力创新以下是我们对Gemini 3 Pro 实测的几个案例案例一多模态理解能力不论用户上传的是文字视频还是代码都能够清晰理解我们上传一个Zilliz在Youtube的视频它能够在40秒左右完成阅读和理解速度惊人在官方测试中上传各种不同语言手写的食谱都其能够成功翻译成一本可共享的家庭食谱案例二在零样本zero-shot生成**。**Gemini 3 Pro 能够处理各种复杂的提示词和命令从而渲染出更加丰富和具有交互性的的Web UI.我们用Gemini 3 Pro 编写了一个完美的80年代复古未来主义美学的3D飞行射击游戏,可以看到霓虹紫色网格地面配合赛博朋克风格的飞船和光效,视觉效果相当惊艳。案例三复杂任务规划Gemini 3 Pro的负责任务规划能力也优于其他模型可以看到它就像一位AI行政秘书能自动将杂乱的邮件按项目归类并预先起草好处理方案如回复、建任务、归档我们只需点击全部确认即可一键清空收件箱二、RAG 教程1依赖和环境准备安装或升级pymilvus、google-generativeai、requests、tqdm这 4 个库到最新版本! pip install --upgrade pymilvus google-generativeai requests tqdm 登录 Google AI Studio 平台获取API KEY地址https://aistudio.google.com/api-keysimport os os.environ[GEMINI_API_KEY] ********** 2数据准备以Milvus文档 2.4.x 中的常见问题解答页面作为我们 RAG 系统中的私有知识库.下载该压缩文件并将文档解压至“milvus_docs”文件夹中。! wget https://github.com/milvus-io/milvus-docs/releases/download/v2.4.6-preview/milvus_docs_2.4.x_en.zip ! unzip -q milvus_docs_2.4.x_en.zip -d milvus_docs 从“milvus_docs/en/faq”文件夹中加载所有的 Markdown 文件。对于每个文档我们只是简单地用“# ”将文件中的内容隔开这样就能大致将 Markdown 文件中每个主要部分的内容分离开来。from glob import glob text_lines [] for file_path in glob(milvus_docs/en/faq/*.md, recursiveTrue): with open(file_path, r) as file: file_text file.read() text_lines file_text.split(# ) 3LLM和Embedding模型准备我们将使用 gemini-3-pro-preview 作为LLM text-embedding-004作为embedding模型import google.generativeai as genai genai.configure(api_keyos.environ[GEMINI_API_KEY]) gemini_model genai.GenerativeModel(gemini-3-pro-preview) response gemini_model.generate_content(who are you) print(response.text) 回复I am Gemini, a large language model built by Google.生成一个测试向量并打印其维度以及前几个元素。test_embeddings genai.embed_content( modelmodels/text-embedding-004, content[This is a test1, This is a test2] )[embedding] embedding_dim len(test_embeddings[0]) print(embedding_dim) print(test_embeddings[0][:10]) 768[0.013588584, -0.004361838, -0.08481652, -0.039724775, 0.04723794, -0.0051557426, 0.026071774, 0.045514572, -0.016867816, 0.039378334]4加载数据到Milvus创建集合from pymilvus import MilvusClient milvus_client MilvusClient(uri./milvus_demo.db) collection_name my_rag_collection 关于MilvusClient的参数设置将URI设置为本地文件例如./milvus.db是最便捷的方法因为它会自动使用Milvus Lite将所有数据存储在该文件中。如果你有大规模数据可以在Docker或Kubernetes上搭建性能更强的Milvus服务器。在这种情况下请使用服务器的URI例如http://localhost:19530作为你的URI。如果你想使用Zilliz CloudMilvus的全托管云服务请调整URI和令牌它们分别对应Zilliz Cloud中的公共端点Public Endpoint和API密钥Api key。检查集合是否存在如果存在的话就删除重建if milvus_client.has_collection(collection_name): milvus_client.drop_collection(collection_name) 创建一个具有指定参数的新集合。如果未指定任何字段信息Milvus将自动创建一个默认的ID字段作为主键以及一个向量字段用于存储向量数据。一个预留的JSON字段用于存储未在schema中定义的字段及其值。milvus_client.create_collection( collection_namecollection_name, dimensionembedding_dim, metric_typeCOSINE, consistency_levelStrong, # Strong consistency level ) 插入集合逐行遍历文本创建嵌入向量然后将数据插入Milvus。下面是一个新的字段text它是集合中的一个未定义的字段。 它将自动创建一个对应的text字段实际上它底层是由保留的JSON动态字段实现的 你不用关心其底层实现。from tqdm import tqdm data [] doc_embeddings genai.embed_content( modelmodels/text-embedding-004, contenttext_lines )[embedding] for i, line in enumerate(tqdm(text_lines, descCreating embeddings)): data.append({id: i, vector: doc_embeddings[i], text: line}) milvus_client.insert(collection_namecollection_name, datadata) 输出结果示例Creating embeddings: 100%|█████████████████████████| 72/72 [00:0000:00, 431414.13it/s] {insert_count: 72, ids: [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60, 61, 62, 63, 64, 65, 66, 67, 68, 69, 70, 71], cost: 0}5创建RAG检索数据我们来问一个关于Milvus的常见问题。question How is data stored in milvus? 在集合中搜索该问题并返回top 3最相关的问题question_embedding genai.embed_content( modelmodels/text-embedding-004, contentquestion )[embedding] search_res milvus_client.search( collection_namecollection_name, data[question_embedding], limit3, # Return top 3 results search_params{metric_type: COSINE, params: {}}, # Inner product distance output_fields[text], # Return the text field ) import json retrieved_lines_with_distances [ (res[entity][text], res[distance]) for res in search_res[0] ] print(json.dumps(retrieved_lines_with_distances, indent4)) 结果按照距离从近到远排序返回[ [ Where does Milvus store data?\n\nMilvus deals with two types of data, inserted data and metadata. \n\nInserted data, including vector data, scalar data, and collection-specific schema, are stored in persistent storage as incremental log. Milvus supports multiple object storage backends, including [MinIO]( https://min.io/ ), [AWS S3]( https://aws.amazon.com/s3/?nc1h_ls ), [Google Cloud Storage]( https://cloud.google.com/storage?hlen#object-storage-for-companies-of-all-sizes ) (GCS), [Azure Blob Storage]( https://azure.microsoft.com/en-us/products/storage/blobs ), [Alibaba Cloud OSS]( https://www.alibabacloud.com/product/object-storage-service ), and [Tencent Cloud Object Storage]( https://www.tencentcloud.com/products/cos ) (COS).\n\nMetadata are generated within Milvus. Each Milvus module has its own metadata that are stored in etcd.\n\n###, 0.8048489093780518 ], [ Does the query perform in memory? What are incremental data and historical data?\n\nYes. When a query request comes, Milvus searches both incremental data and historical data by loading them into memory. Incremental data are in the growing segments, which are buffered in memory before they reach the threshold to be persisted in storage engine, while historical data are from the sealed segments that are stored in the object storage. Incremental data and historical data together constitute the whole dataset to search.\n\n###, 0.757495105266571 ], [ What is the maximum dataset size Milvus can handle?\n\n \nTheoretically, the maximum dataset size Milvus can handle is determined by the hardware it is run on, specifically system memory and storage:\n\n- Milvus loads all specified collections and partitions into memory before running queries. Therefore, memory size determines the maximum amount of data Milvus can query.\n- When new entities and and collection-related schema (currently only MinIO is supported for data persistence) are added to Milvus, system storage determines the maximum allowable size of inserted data.\n\n###, 0.7453694343566895 ] ] 使用大型语言模型LLM构建检索增强生成RAG响应将检索到的文档转换为字符串格式。context \n.join( [line_with_distance[0] for line_with_distance in retrieved_lines_with_distances] ) 为大语言模型提供系统提示system prompt和用户提示user prompt。这个提示是通过从Milvus检索到的文档生成的。SYSTEM_PROMPT Human: You are an AI assistant. You are able to find answers to the questions from the contextual passage snippets provided. USER_PROMPT f Use the following pieces of information enclosed in context tags to provide an answer to the question enclosed in question tags. context {context} /context question {question} /question 使用gemini-3-pro-preview模型和提示词生成回复gemini_model genai.GenerativeModel( gemini-3-pro-preview, system_instructionSYSTEM_PROMPT ) response gemini_model.generate_content(USER_PROMPT) print(response.text) 从输出结果可以看到gemini 3 Pro 能够条理清晰地返回结果Based on the provided documents, Milvus stores data in the following ways: * **Inserted Data:** Vector data, scalar data, and collection-specific schema are stored in persistent storage as an incremental log. Milvus supports multiple object storage backends for this purpose, including: * MinIO * AWS S3 * Google Cloud Storage (GCS) * Azure Blob Storage * Alibaba Cloud OSS * Tencent Cloud Object Storage (COS) * **Metadata:** Metadata generated within Milvus modules is stored in **etcd**. * **Memory Buffering:** Incremental data (growing segments) are buffered in memory before being persisted, while historical data (sealed segments) resides in object storage but is loaded into memory for querying. 友情提示目前Gemini 3 Pro不向免费用户提供详情https://ai.google.dev/gemini-api/docs/rate-limits#tier-1但是我们可以通过OpenRouter进行调用https://openrouter.ai/google/gemini-3-pro-preview/api具体用法参考下面from openai import OpenAI client OpenAI( base_urlhttps://openrouter.ai/api/v1, api_keyOPENROUTER_API_KEY, ) response2 client.chat.completions.create( modelgoogle/gemini-3-pro-preview, messages[ { role: system, content: SYSTEM_PROMPT }, { role: user, content: USER_PROMPT } ], extra_body{reasoning: {enabled: True}} ) response_message response2.choices[0].message print(response_message.content)三、one more thing这次与旗舰模型Gemini 3 Pro同步推出的还有Google Antigravity反重力平台作为一个AI编程平台它可以自主访问我们的编辑器、终端、甚至内置浏览器能力边界上也从过去的执行具体指令、单次调用升级为自主任务导向型开发。更直白一点说之前我们只能让AI编程软件写一段代码然后自己校验、合并但是借助Google Antigravity我们可以直接告诉AI我要写一个宠物互动游戏它就可以自动把这个任务进行一步步分解执行并且自动打开浏览器进行校验。整个过程甚至还会学习你的个人风格来进行持续的迭代优化。当然调度数据库搭配MCP能力读取你的Milvus数据库内容自己搞一个知识库长期来看也不是不可能。这个在我个人看来其实比模型发布本身的意义要更重大毕竟它都能按照产品经理的抽象描述做任务拆解了那开发者现在转产品还来得及吗绝对是来的及的!读者福利如果大家对大模型感兴趣这套大模型学习资料一定对你有用对于0基础小白入门如果你是零基础小白想快速入门大模型是可以考虑的。一方面是学习时间相对较短学习内容更全面更集中。二方面是可以根据这些资料规划好学习计划和方向。包括大模型学习线路汇总、学习阶段大模型实战案例大模型学习视频人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】AI大模型学习路线汇总大模型学习路线图整体分为7个大的阶段全套教程文末领取哈第一阶段从大模型系统设计入手讲解大模型的主要方法第二阶段在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用第三阶段大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统第四阶段大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统第五阶段大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型第六阶段以SD多模态大模型为主搭建了文生图小程序案例第七阶段以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。大模型实战案例光学理论是没用的要学会跟着一起做要动手实操才能将自己的所学运用到实际当中去这时候可以搞点实战案例来学习。大模型视频和PDF合集观看零基础学习书籍和视频看书籍和视频学习是最快捷也是最有效果的方式跟着视频中老师的思路从基础到深入还是很容易入门的。学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。获取方式一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

网站及新媒体帐号内容建设4399小游戏电脑版网页链接

✅作者简介:热爱科研的Matlab仿真开发者,擅长数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。 🍎 往期回顾关注个人主页:Matlab科研工作室 🍊个人信条:格物致知,完整Matlab代码获取及仿…

张小明 2026/1/6 18:40:32 网站建设

大丰网站建设公司免费软件看电影电视剧

轻量级RAG革命:LFM2-1.2B-RAG如何重新定义边缘智能问答 【免费下载链接】LFM2-1.2B-RAG 项目地址: https://ai.gitcode.com/hf_mirrors/LiquidAI/LFM2-1.2B-RAG 导语:小模型撬动大变革,边缘设备迎来智能问答新纪元 在AI模型参数竞赛…

张小明 2026/1/4 6:49:44 网站建设

域名对网站的影响海南省海口市网站建设

在本地生活服务、O2O 平台、企业选址分析等场景中,GEO 搜索优化系统的核心价值是 “精准定位 高效筛选”,但多数开源或通用系统的痛点的是:账号权限混乱、数据隔离性差、操作无追溯 —— 比如销售账号能查看全区域客户数据,运维误…

张小明 2026/1/4 6:47:43 网站建设

无版权视频素材网站网站框架与内容

快速体验 打开 InsCode(快马)平台 https://www.inscode.net输入框内输入如下内容: 构建一个证书自动化管理工具,功能包括:1. 定时扫描所有域名证书状态 2. 过期前30/15/7天分级预警 3. 与Lets Encrypt API集成自动续期 4. 支持多服务器证书部…

张小明 2026/1/9 7:01:34 网站建设

网站界面友好建立公司网站时什么是重要的

腾讯混元7B开源:256K超长上下文快慢思考双引擎重构大模型应用范式 【免费下载链接】Hunyuan-7B-Pretrain 腾讯开源大语言模型Hunyuan-7B-Pretrain,支持256K超长上下文,融合快慢思考模式,具备强大推理能力。采用GQA优化推理效率&am…

张小明 2026/1/4 6:43:40 网站建设

未来做哪些网站致富深圳百度代理

Excalidraw AI 支持中英文混合输入:让中文用户“所想即所得” 在技术团队协作日益依赖可视化表达的今天,一张清晰的架构图往往胜过千言万语。然而,画图这件事对很多人来说并不轻松——不仅要熟悉绘图工具的操作逻辑,还得花时间排布…

张小明 2026/1/5 7:07:45 网站建设