形式过重,内容失焦

最近,某些企业开始要求员工制作短视频来汇报工作,包括内容剪辑、拍照、设计、配音、字幕等一系列操作。制作一份短视频,首先要经历拍摄、剪辑、配音、设计字幕等一系列繁琐的步骤。这些步骤涉及到大量的时间投入,无论是技术人员还是其他职能人员,都可能因此被拖慢工作进度。尤其是在没有任何实际需求的情况下,制作这些视频,既无法提高工作效率,也无法真正提升汇报的质量。相比之下,员工完全可以将这些时间投入到更具价值的工作当中,例如优化现有的流程、推动项目进展、解决实际问题,这才是对公司和部门更有价值的贡献。

除此之外,有些部门要求技术人员人员在忙完交付项目的同时,为自己的部门做一个部门门户网站,展示部门的集体活动、项目工作安排和其他事务。这一切看似是在提高工作效率和现代化,但实际上,却是一种过度形式化的浪费,不仅没有提升效率,反而给员工增加了不必要的负担。在组织架构频繁调整的情况下,部门门户网站的开发成本和维护成本将会居高不下。每一次组织架构的调整都意味着网站内容的修改、页面结构的重组、链接的更新,甚至是新的功能需求的增加。这些改动不仅需要技术人员投入大量时间去开发和调整,甚至还可能需要后期不断的维护和优化,导致成本居高不下。然而,这些网站所能带来的实际价值往往微乎其微——它们更多的是成为一个“虚拟的名片”,而并没有实际解决工作中的问题,也难以真正推动部门内外的有效沟通。

简单来看,PPT、Excel、Word等文件已经能够满足向上汇报的需求。信息化的办公平台,在线文档,甚至简单的邮件汇报,都能清晰、高效地传达部门的工作进展和重点。PPT本身就能将信息进行可视化,数据图表的分析和展示在 Excel 中不费吹灰之力,Word 文档和在线协作平台也能将工作内容一一列明。信息传达得足够清晰,工作情况也能得到很好的反映。那么,为什么一定要用短视频和网站去增加额外的时间和成本?或许让员工都忙起来才是领导真正的目的。

短视频的制作本质上是一种“形式上的繁琐”。我们必须知道,汇报的目的不是为了制作一部短片,而是为了向上级简洁地展示工作进展。让员工们花费大量的时间去制作视频,进行剪辑、拍摄、设计、配音,不仅让员工的工作效率降低,还使得他们的精力被这些无意义的形式主义所消耗。最令人困惑的是,这种形式化的内容输出并没有实际的价值,最终得到的汇报内容也可能只是为了给领导展示而已,而非为工作提供实际的帮助。

再来看门户网站的要求,似乎是为了让部门展示得更加专业,但实际上,这种做法带来了更多的复杂性和维护成本。开发人员本应该专注于自己的项目开发工作,而不是被迫去做展示的工作。做一个网站,意味着要设计页面、开发功能、测试调试,甚至后期的维护和更新也将耗费大量人力。这与工作汇报的初衷背道而驰:汇报的核心是传递工作信息,而不是通过网站来展示部门的形象。如果为了门户网站投入了大量精力,难道不应该思考一下,这个网站究竟能够为部门的实际工作带来多少实质性的提升呢?

最重要的是,这种过度形式化的汇报方式,往往会造成资源的浪费。对于一个部门来说,员工的时间和精力是最宝贵的资源。如果将本该用于实际工作的时间消耗在无意义的形式制作上,最终得到的汇报效果可能远不如那些使用传统手段(如PPT、文档等)做出的汇报。反而,如果每个人都可以专注于自己的工作,使用传统的、有效的汇报方式,不仅能够节省大量的时间,还能保证工作的质量和进度。另外,信息化平台本身已经能够满足绝大多数向上汇报的需求。如今,我们有越来越多高效的在线平台,能够让部门之间的信息传递更加流畅。如果我们不再被这种“形式主义”所束缚,反而能让工作回归到高效与实用的轨道

过度形式化的汇报工作只会让员工的时间和精力浪费在无关紧要的事情上,而非专注于工作的实际内容。这种做法看似现代化,实则徒增负担。作为企业的领导就应当摒弃这些毫无必要的汇报方式,让员工们回归工作的本质,尊重员工们的创造力和工作效率。真正的工作汇报,应该是简洁高效的,而不是过度复杂的装饰品

故事含虚构创作,如有雷同纯属巧合

不算加班的加班:如何将私人时间变成团队资源

这周某个大团队举行了一场超级盛大聚会,定在了周六下午12:30-19:00。从时间上看领导们都觉得不算加班,但对于员工而言不是加班却胜过加班,至少加班会有加班工资或者调休。这场超级盛大聚会的活动内容包括开场、节目表演、团队业绩汇报、领导的长篇大论和一个默默的散场。为了避免不必要的麻烦,这场活动显然是“自愿参加”,但从组织安排到活动内容,怎么看怎么像是把员工的私人时间当成了团队的一项资源。

让我们来看看时间安排——周六下午12点到19点,员工为了提前到场和提前吃午饭,11:00就要准备出门。周六下午这个时间段本该是员工休息、放松、与家人相处的黄金时光,却被团队精心安排成了活动时间。虽然领导强调活动不算加班,但实际上,这并不意味着员工的时间不被浪费。为了表彰极少数优秀的员工,整个团队的私人时间被毫不犹豫地占用,这种安排真的让人觉得,领导的资源分配机制似乎只考虑了团队利益,却忽略了员工的基本需求。

再来说说没有聚餐的安排——本以为表彰大会应该有一些激励性的元素,像是聚餐、团队互动等环节,可惜,这场大会没有任何聚餐环节,整个活动简直就是一个没有味道的盛宴。节目表演?业绩汇报?领导的讲话?这些看似充实的内容,实则空洞无物,完全缺乏和员工实际需求的对接。领导讲话的时间甚至比员工等待的时间还要长,大家只能盯着舞台,勉强等待着会议的结束,仿佛整场活动的唯一意义就是完成一个合格的表彰环节。

而在活动前的周三,大家还回答了一个神奇的问题:“你是否愿意来参加周末的盛大聚会?”虽然这场活动不算加班,但这一问,却像是对员工心理的微妙测试。这并非一个简单的问询,而是带有潜在压力的提示:“你若不参加,是否就显得不够团队精神了?你不参加,是不是不愿意接受这一份团队的荣誉了?并不是所有员工都有机会参加的,给你这一份荣耀你要积极参与呀!”即使这种加班没有明确的强制性,这种提前询问也让员工在选择上感到左右为难,不禁让人怀疑,背后是否隐藏着一种“潜规则”?

然后,来谈谈这场大会的内容:虽然表彰大会的初衷是为了激励员工,但最终的效果却可能事与愿违。奖金微乎其微,没有额外的福利,抽奖环节的奖品少之又少。看到这里,许多员工的内心反而会充满失落。能让员工真正感到价值和激励的,不是空洞的表扬,而是切实的奖励和对员工辛勤工作的认可。否则,所有的表彰和奖励,都变成了表面功夫。业绩的提高、领导的讲话,似乎是为了让大家觉得:团队很重视你们,但实际操作起来,却和员工的需求南辕北辙。

盛大宴会的意义应该在于让员工感受到关心与尊重,但如果它成为了侵占员工时间的借口,并没有真正的激励和回报,甚至还让员工感到压力,那它的真正价值就值得怀疑了。让员工放弃周末时间来参加盛大宴会,现场却没有给出任何实际的激励,这种安排不禁让人觉得,团队似乎在占用员工的时间和精力,却没有给员工带来任何实质性回报

我们应该深刻思考的是,这种看似无害的活动安排,背后到底隐藏了多少公司对员工私人时间和需求的忽视?员工不是无条件地为团队工作和奉献,他们同样需要时间、空间以及真正的激励和认可。只有当领导真正从员工的角度出发,考虑到他们的生活和工作平衡,才能让这些表彰大会真正具有意义。而不是像这次活动一样,沦为一场“空洞”的时间占用,充斥着形式化的“庆祝”和空泛的表扬。

这场盛大聚会更像是一次被安排的体验,员工在其中扮演的不过是合格的观众,而不是参与者。如果领导真心希望增强团队的凝聚力,激励员工的工作热情,或许应该从根本上改变这种形式化的活动安排。真正的激励,不应该仅仅体现在一个活动的安排上,而是通过实际的奖励、福利、甚至是合理安排员工时间的尊重,来激发员工的积极性和忠诚度。本质上是公司对员工私人时间的轻描淡写的剥夺。

在这种安排下,员工的工作热情和归属感并不会因此得到提升,反而会产生一种无形的压力:即便是公司举办的活动,你依然要为参加而付出时间和精力,而收获的只有一些形式化的表彰。真正值得反思的是,未来的活动是否能更加人性化,考虑员工的需求,不仅仅是通过表扬来表现团队精神,而是通过实际的奖励和对员工时间的尊重,来推动更好的团队氛围。

故事含虚构创作,如有雷同纯属巧合

Ollama简介:让大模型走进每个开发者的工具箱

Ollama的介绍

Ollama 是一款强大的人工智能语言大模型(LLM)平台,专注于为开发者和企业提供高效、可定制的文本生成和自然语言处理能力。通过集成先进的深度学习技术,Ollama 能够在本地帮助用户生成高质量的文章、解答复杂问题、提供自动化客服支持等。无论是内容创作、数据分析,还是智能客服系统,Ollama 都能提供灵活的解决方案,并支持跨平台应用。凭借其易用的接口、快速的响应速度和强大的定制化功能,Ollama 已成为越来越多开发者和企业的首选工具,为他们在复杂任务中提供智能化的辅助和支持。


不仅如此,Ollama还提供了一些非常简单的方式来下载、运行、加载和使用各种预训练的开源大语言模型,支持文本生成、知识问答等常见的自然语言处理功能。在Ollama的加持下,NLP不再是只有深度学习背景的开发者才能够接触的领域。

Ollama的入门

在GitHub的官网上,可以找到Ollama的链接是:https://github.com/ollama/ollama。同时,它可以支持MAC、Windows、Linux的使用,并且Linux的下载和安装命令如下:

curl -fsSL https://ollama.com/install.sh | sh

除此之外,Ollama还支持通过Docker的方式进行部署。在使用Ollama的之前,需要将其安装在电脑上,根据不同的操作系统,可以选择不同的安装方式。

下载与安装

Windows系统

打开浏览器,访问 Ollama 官方网站:https://ollama.com/download,下载适用于 Windows 的安装程序。下载地址为:https://ollama.com/download/OllamaSetup.exe。下载完成后,双击安装程序并按照提示完成安装。打开命令提示符或 PowerShell,输入以下命令验证安装是否成功:

ollama --version

如果上述命令显示版本号,则表示安装成功。

Mac系统

打开浏览器,访问 Ollama 官方网站:https://ollama.com/download,下载适用于 macOS 的安装程序。下载地址为:https://ollama.com/download/Ollama-darwin.zip。下载完成后,双击安装包并按照提示完成安装。安装完成后,通过以下命令验证:

ollama --version

如果上述命令显示版本号,例如ollama version is 0.6.5,则表示安装成功。如果显示zsh: command not found: ollama,则表示没有安装成功。

Linux系统

在Linux系统上,可以一键安装ollama,输入以下命令即可:

curl -fsSL https://ollama.com/install.sh | bash

安装完成后,通过以下命令验证:

ollama --version

如果上述命令显示版本号,则表示安装成功。

部分模型

在GitHub的官网上,我们可以看到Ollama可以支持和下载的模型种类是非常多的,包括Gemma、DeepSeek、Llama、LLaVA等,并且不同的大小也可以通过参数来进行选择。通常来说,模型的参数越多,模型的大小也就越大。更全的模型库可以参考链接:https://ollama.com/library

模型参数大小下载并运行
Gemma 31B815MBollama run gemma3:1b
Gemma 34B3.3GBollama run gemma3
Gemma 312B8.1GBollama run gemma3:12b
Gemma 327B17GBollama run gemma3:27b
QwQ32B20GBollama run qwq
DeepSeek-R17B4.7GBollama run deepseek-r1
DeepSeek-R1671B404GBollama run deepseek-r1:671b
Llama 3.370B43GBollama run llama3.3
Llama 3.23B2.0GBollama run llama3.2
Llama 3.21B1.3GBollama run llama3.2:1b
Llama 3.2 Vision11B7.9GBollama run llama3.2-vision
Llama 3.2 Vision90B55GBollama run llama3.2-vision:90b
Llama 3.18B4.7GBollama run llama3.1
Llama 3.1405B231GBollama run llama3.1:405b
Phi 414B9.1GBollama run phi4
Phi 4 Mini3.8B2.5GBollama run phi4-mini
Mistral7B4.1GBollama run mistral
Moondream 21.4B829MBollama run moondream
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
LLaVA7B4.5GBollama run llava
Granite-3.28B4.9GBollama run granite3.2

DeepSeek-r1会有不同的模型参数和大小,最少的模型参数是1.5b,最大的模型参数是671b。这些可以在Ollama的官网上找到,并且可以基于本地电脑的配置下载到本地电脑进行运行。在运行模型的时候,请注意mac的内存情况,以及参考Ollama官方提供的建议:You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models.

Ollama的使用

模型下载

使用帮助命令可以查到ollama的常见命令如下:

ollama -h

目前以操作deepseek-r1:7b模型为例,当你只需要下载模型的时候,需要使用命令:

ollama pull deepseek-r1:7b

当你需要下载模型并且运行的时候,需要使用命令,同时就会进入对话功能,正常的使用即可。退出的时候可以使用ctrl+d或者/bye即可。

ollama run deepseek-r1:7b

如果想查看该模型的细节,可以用show命令进行展示。

ollama show deepseek-r1:7b

当你想查看Ollama安装了多少大模型的时候,可以使用命令:

ollama list

在mac上执行ollama serve,会出现Error: listen tcp 127.0.0.1:11434: bind: address already in use的错误。原因是:Mac安装Ollama后,启动Ollama后会本地监听本地TCP的11434端口,但这个监听仅仅是本地层面的监听,无法被本地以外的主机访问,也就是无法被同网段的主机访问。如果其他主机需要访问的话,需要采用docker部署的方式,重新修改一个新的端口即可,同时对外开放相应的端口。

模型交互

命令行交互

在mac上启动命令行,可以将模型直接启动起来,进入对话模式。

ollama run deepseek-r1:7b

在交互模式下,输入/bye或按下Ctrl+d退出即可。

单次命令交互

通过管道将输入传递给相应的模型,模型进行输出,例如输入“什么是数学?”就可以用以下命令:

echo "什么是数学?" | ollama run deepseek-r1:7b

使用命令行参数

甚至还可以直接在命令行中传递输入以下内容,直接获得结果。

ollama run deepseek-r1:7b "撰写一份周报的模板"

使用文件交互,例如有一个文件是input_text_1.txt,内容是“什么是化学?”,那么通过这个符号<以及路径和文件就可以输入给模型,并且得到输出的结果。

ollama run deepseek-r1:7b </Users/zr9558/Documents/Datasets/text/input_text_1.txt 

自定义提示词

通过 Modelfile 定义自定义提示词或系统指令,使模型在交互中遵循特定规则。创建自定义模型,编写一个 Modelfile:

FROM deepseek-r1:7b SYSTEM "你是一个编程助手,专门帮助用户编写代码。"

创建自定义模型:

ollama create runoob-model -f ./Modelfile

运行自定义模型:

ollama run runoob-model

发送请求交互

通过curl命令可以看到当前端口启动的模型:

curl http://localhost:11434/api/tags

通过curl命令和相应的参数配置,可以实现发送请求给本地mac启动的模型。

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:7b",
  "prompt": "什么是生物学?主要研究哪些方向?",
  "stream": false
}'

还可以增加更为复杂的参数进行curl请求,其中options里面就是模型的参数选择。

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:7b",
  "prompt": "什么是生物学?主要研究哪些方向?",
  "stream": false,
  "options": {
    "temperature": 0.7,
    "max_tokens": 100
  }
}'

如果选择stream是true,则用流式进行输出,那么则是逐行输出,每一行的输出是就是词语或者汉字字符,把每一行的response汇总到一起就是最终的输出。

curl http://localhost:11434/api/generate -d '{
  "model": "gemma3:27b",
  "prompt": "用一句话介绍数学是什么?",
  "stream": true
}'

Python 交互

ollama提供了多种方式与Python代码进行交互,包括request,ollama SDK等。

requests 交互

可以直接使用Python的requests模块发送请求,并获得相应的结果。

import requests

# 生成文本
response = requests.post(
    "http://localhost:11434/api/generate",
    json={
        "model": "gemma3:27b",
        "prompt": "用一句话介绍什么是线性代数",
        "stream": False
    }
)
print(response.json())

另外,还可以这样去写代码:

import requests
response = requests.post(
    "http://localhost:11434/api/chat",
    json={
        "model": "gemma3:27b",
        "messages": [
            {
                "role": "user",
                "content": "用一句话描述什么是实变函数"
            }
        ],
        "stream": False
    }
)
print(response.json())

Ollama 交互

Ollama有python的SDK,可以使用python的版本,其GitHub源码链接是https://github.com/ollama/ollama-python。使用pip就可以完成安装:

pip install ollama

然后在Mac的PyCharm中使用以下代码,就可以发送请求给模型,进行结果的一次性返回:

from ollama import chat
from ollama import ChatResponse

response: ChatResponse = chat(model='gemma3:27b', messages=[
  {
    'role': 'user',
    'content': '用一句话介绍什么是泛函分析',
  },
])
# 打印响应内容
print(response['message']['content'])

print('-'*40)

# 或者直接访问响应对象的字段
print(response.message.content)

如果要做流式输出,则可以采用以下方法:

from ollama import chat

stream = chat(
    model='deepseek-r1:32b',
    messages=[{'role': 'user', 'content': '什么是数学分析?'}],
    stream=True,
)

# 逐块打印响应内容
for chunk in stream:
    print(chunk['message']['content'], end='', flush=True)


ollama的chat 方法可以与模型进行对话生成,发送用户消息并获取模型响应:

import ollama

print(ollama.chat(model='gemma3:27b', messages=[{'role': 'user', 'content': '用一句话介绍:数学中的动力系统是什么?'}]))

输出以下内容:

model=’gemma3:27b’ created_at=’2025-04-15T02:56:36.041842Z’ done=True done_reason=’stop’ total_duration=3464291750 load_duration=48093500 prompt_eval_count=20 prompt_eval_duration=433924792 eval_count=22 eval_duration=2981754125 message=Message(role=’assistant’, content=’数学中的动力系统研究的是随时间变化的系统,尤其是系统状态如何随时间演变。\n’, images=None, tool_calls=None)

如果只需要输出message中content 的部分,则可以这样修改代码:

import ollama

print(ollama.chat(model='gemma3:27b', messages=[{'role': 'user', 'content': '用一句话介绍:数学中的动力系统是什么?'}]).message.content)

ollama的generate方法用于文本生成任务。与chat方法类似,但是它只需要一个prompt参数。同时,如果只需要查看response的时候,就可以参考以下代码:

import ollama

print(ollama.generate(model='gemma3:27b', prompt='用一句话介绍:数学中的常微分方程是什么?'))

print(ollama.generate(model='gemma3:27b', prompt='用一句话介绍:数学中的常微分方程是什么?').response)

ollama的list方法可以列出所有可用的模型:

import ollama print(ollama.list())

ollama的show方法可以显示指定模型的详细信息:

import ollama print(ollama.show('deepseek-r1:32b'))

ollama的embed方法可以输出文本嵌入:

import ollama

print(ollama.embed(model='deepseek-r1:32b', input='The sky is blue because of rayleigh scattering'))

print(ollama.embed(model='deepseek-r1:32b', input='The sky is blue because of rayleigh scattering').embeddings)

另外,ollama还有create(创建新模型)、copy(复制)、delete(删除)、pull(拉取)、push(推送到远端)等常用的方法。另外,还可以使用ps命令查看运行的模型:

import ollama
print(ollama.ps())

客户端

还可以创建自定义客户端,来进一步控制请求配置,比如设置自定义的 headers 或指定本地服务的 URL。通过 Client,用户可以自定义请求的设置(如请求头、URL 等),并发送请求。

from ollama import Client

client = Client(
    host='http://localhost:11434',
    headers={'x-some-header': 'some-value'}
)

response = client.chat(model='gemma3:27b', messages=[
    {
        'role': 'user',
        'content': '什么是生物学',
    },
])
print(response['message']['content'])

如果用户希望异步执行请求,可以使用AsyncClient类,适用于需要并发的场景。异步客户端支持与传统的同步请求一样的功能,唯一的区别是请求是异步执行的,可以提高性能,尤其是在高并发场景下。

import asyncio
from ollama import AsyncClient

async def chat():
    message = {'role': 'user', 'content': '用简单的语句描述工作中的日报有哪些内容?'}
    response = await AsyncClient().chat(model='gemma3:27b', messages=[message])
    print(response['message']['content'])

asyncio.run(chat())

如果用户需要异步地处理流式响应,可以通过将stream=True设置为异步生成器来实现。

import asyncio
from ollama import AsyncClient

async def chat():
    message = {'role': 'user', 'content': '用简单的语句描述工作中的日报有哪些内容?'}
    async for part in await AsyncClient().chat(model='gemma3:27b', messages=[message], stream=True):
        print(part['message']['content'], end='', flush=True)

asyncio.run(chat())

文章总结

Ollama 是一个本地大模型运行框架,致力于让开发者在个人设备上快速部署和使用各类开源大语言模型(如 LLaMA、Mistral、Gemma、DeepSeek等)。它通过极简的 CLI 命令(如 ollama run llama3),帮助用户在无需复杂环境配置的情况下,一键拉起本地模型。Ollama 提供了统一的模型管理、会话API和内存管理机制,是开发者测试、原型开发、本地私有化部署的理想工具,也适合作为RAG、Agent框架中的模型后端接入点。

参考资料

  1. 官网链接:https://ollama.comhttps://ollama.org.cn
  2. GitHub地址:https://github.com/ollama/ollama
  3. Ollama中文文档:https://ollama.readthedocs.io/quickstart/
  4. Ollama教程:https://www.runoob.com/ollama/ollama-tutorial.html
  5. Ollama中文文档:https://ollama.readthedocs.io
  6. LlamaFactory:https://www.llamafactory.cn