电脑使用了很多肯定存储了很多文件,有时候不记得文件具体存储位置了。那么有个本地全文搜索工具就很有必要了。
软件介绍
猎犬,一个Windows 本地全文搜索工具,快速、友好的桌面文本搜索软件。无需索引,支持文件文本提取,支持PDF、DOCX、ZIP、JPG 等30+文件格式,支持20+语言图片文字提取,界面简洁,操作方便,搜索结果一键导出为doc格式,保留文件路径、匹配内容等元数据,推荐。
软件截图

电脑使用了很多肯定存储了很多文件,有时候不记得文件具体存储位置了。那么有个本地全文搜索工具就很有必要了。
猎犬,一个Windows 本地全文搜索工具,快速、友好的桌面文本搜索软件。无需索引,支持文件文本提取,支持PDF、DOCX、ZIP、JPG 等30+文件格式,支持20+语言图片文字提取,界面简洁,操作方便,搜索结果一键导出为doc格式,保留文件路径、匹配内容等元数据,推荐。

在做社交媒体时,粉丝增长到一个特定的里程碑是值得开心和庆祝的时刻。仅仅用文字来表达这一成就往往显得单调而缺乏创意。萤数的出现,为社交媒体用户带来了一种全新的庆祝方式,将粉丝增长的里程碑变成了一场视觉盛宴。
萤数,是一款由 hellokaton 精心打造的社交里程碑动画生成工具。用户只需输入自己的社交平台昵称、用户 ID、头像地址、关注者数量以及一段简短的 Follower 文案,就可以迅速生成一个精美的动画。这个动画生动地展示了粉丝数量的增长过程,为社交媒体上的里程碑时刻增添了独特的仪式感。

WebP是一种图片格式,由Google开发,旨在为网络提供高效的无损和有损压缩,可以显著减少图片文件的大小,同时保持较好的图像质量. 把多个图片帧串联起来,就构成了动画WebP。
动画WebP具有动画效果的WebP图片格式,结合了WebP图片格式的优势,例如高压缩率和高质量,并增加了动画能力,类似于GIF动图,但体积更小,加载速度更快。
Video2WebP,在线将视频转换为动画 WebP的工具,可自定义帧率(1–30)、质量(1–100)和宽度比例(1–100%),视频越大等待转换时间越长,完成后可直接右键保存,完全浏览器本地运行,无需担心隐私问题,免费无广告,无需注册。推荐!

Quick Prompt,是一款功能强大的浏览器扩展,专注于提示词管理与快速输入。它可以帮助您创建、管理和组织提示词库,并在任何网页的输入框中快速插入预设的Prompt内容,大幅提高您与AI工具交互的效率。

Chrome 应用商店:https://chromewebstore.google.com/detail/quick-prompt/hnjamiaoicaepbkhdoknhhcedjdocpkd
项目地址:https://github.com/wenyuanw/quick-prompt
虚拟键鼠和手柄,接近原生操作系统的键鼠体验,支持XBOX协议手柄,支持windows,macos,Andoird,ios以及网页版。
CloudPlayPlus,一款远程桌面与游戏串流软件,可以从任何设备上掌控自己的电脑,办公,畅玩3A。源码已开源,完全免费,极低的延迟,在稳定的网络下远程桌面和使用自己电脑无异,可设置双重验证,避免未授权的连接;WebRTC提供信道加密,数据安全有保障。

阿喵介绍了很多个人主页模板,这个是阿喵最近看到最现代,最有趣的个人主页模板。
Duckfolio旨在为开发者、设计师或创作者提供一个清爽、易于维护的在线名片,快速展示你的个人信息、社交链接与博客等内容。
同时也展示了如何使用现代 Web 技术(Next.js、TailwindCSS、Shadcn UI 等)构建轻量级的静态网站。

深度图床,一个免费且高速的上传和分享图片的平台。适用于个人、博主、开发者等需要快速分享和管理图片的用户。不过需要注意的是,这个平台可能还处于起步阶段,图床目前托管 39 张图片,共占用储存 17.17 MB,因为托管的图片数量较少。用户在使用之前,可以先了解更多详细信息,确保该平台符合自己的需求。

免费使用:无需付费,用户可以免费上传和分享图片。
高速上传:利用多IP节点技术,确保图片上传和访问速度快捷。
无损转换:用户可以快速将图像转换为URL链接,且不压缩图像质量。
稳定可靠:提供稳定的服务,确保图片安全和持久的访问。
相册加密访问:支持相册加密功能,保护用户隐私和图片安全。
内容创作者,当发送视频或者文字需要配音的时候,经常苦于音乐版权问题,甚至在不知情的情况下使用的有版权的音乐,造成内容违规。阿喵想着那可以试试自己创造音乐啦!
AI Song Maker,一个在线AI音乐生成器,可以选择文本转歌曲和歌词转歌曲,选择音乐风格,说唱、摇滚、流行等,点击生成音乐即可。

首先选择是要从文本生成歌曲还是从歌词生成歌曲,或选择纯音乐曲目。我们的AI音乐生成器会适应您的创作需求。
探索说唱、摇滚、流行等不同风格,或自定义男/女声和节奏。然后添加独特的标题来个性化您的歌曲并使其脱颖而出。
使用AI音乐生成生成您的音乐,然后立即下载免版税音乐或通过平台与您的听众分享。
之前有AI工具支持写小说,现在的AI工具不仅可以写小说,还能提取小说片段生成视频。
TaleStreamAI,专注于自动化将 AI 生成的小说片段转化为引人入胜的视频内容以进行社交媒体分享的过程。工作流程无缝集成了最新的 AI 技术,以视觉上引人入胜的格式使虚构故事栩栩如生。推荐!

全自动工作流程: TaleStreamAI 通过利用 AI 算法简化整个过程,消除了创建视频内容所涉及的体力劳动。
AI 小说推文提取:系统自动提取 AI 模型生成的小说推文,作为视频内容的基础。
视频创作: 利用 AI 的力量,TaleStreamAI 将新颖的片段转换为具有视觉吸引力的视频,以便在各种社交媒体平台上分享。
效率和创新:通过将 AI 功能与讲故事相结合,TaleStreamAI 突破了内容创建和分发的界限。
项目流程
| 文件名 | 功能 | 模型/库 |
|---|---|---|
| main.py | 获取书籍内容 | 无 |
| board.py | 生成章节分镜 | gemini-2.0-flash |
| prompt.py | 润色分镜提示词 | deepseek-v3 |
| image.py | 生成图片 | 秋葉 aaaki forge 版 |
| audio.py | 生成音频 | CosyVoice2-0.5B:benjamin |
| tts.py | 生成字幕 | 本地运行 whisper |
| video.py | 生成视频 | ffmpeg-gpu 加速版 |
| video_end.py | 生成完整视频 | ffmpeg-gpu 加速版 |
本项目使用的是
uv来管理依赖,建议 python 版本>=3.10
uvpip install uv
uv venv --python 3.12
.\.venv\Scripts\activate
uv add -r requirements.txt
uv pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
可以通过nvidia-smi来查询你的显卡支持的最高cuda版本
nvidia-smi +-----------------------------------------------------------------------------------------+ | NVIDIA-SMI 560.94 Driver Version: 560.94 CUDA Version: 12.6 | |-----------------------------------------+------------------------+----------------------+ | GPU Name Driver-Model | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | MIG M. | |=========================================+========================+======================| | 0 NVIDIA GeForce RTX 4070 Ti WDDM | 00000000:01:00.0 On | N/A | | 0% 28C P8 4W / 285W | 2157MiB / 12282MiB | 2% Default | | | | N/A | +-----------------------------------------+------------------------+----------------------+
通过 nvcc 来查询你电脑已安装的cuda版本
其实是你环境变量中配置的版本而已,一个电脑上可以安装多个 cuda
nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2022 NVIDIA Corporation Built on Wed_Sep_21_10:41:10_Pacific_Daylight_Time_2022 Cuda compilation tools, release 11.8, V11.8.89 Build cuda_11.8.r11.8/compiler.31833905_0
复制 .env.example 文件,改名为 .env
配置其缺少的 APIKey
其中 AUDIO_API_KEY 是可以支持多 Key 轮询的,用,分割
(做到这一步我才意识到可以多 Key 支持高并发 😂 如果需 Gemini 需要高并发的话,可能需要手动去 copy 多 key 的处理的代码到board.py中了)
配置起点达人中心的 Cookie 用来抓取小说 起点达人中心
安装ffmpeg最好安装GPU加速版,否则生成的很慢(好像新一点的版本都已经支持gpu加速了) Github
使用 ffmpeg -hwaccels 来列出硬件加速选项
Hardware acceleration methods: cuda vaapi dxva2 qsv d3d11va opencl vulkan
我是直接按照项目流程来逐个运行文件的
uv run app/main.py # 获取小说内容 uv run board.py # 生成分镜 uv run prompt.py # 优化提示词 uv run image.py # 生成图片 uv run audio.py # 合成音频 uv run tts.py # 生成字幕 uv run video.py # 制作分镜视频 uv run video_end.py # 最终合成
如果你想要直接运行 也可以直接运行 main.py
uv run main.py
Whisper 模型规格
| 模型规格 | 参数量 | 最低显存要求 |
|---|---|---|
| Tiny | 39M | ~1GB |
| Base | 74M | ~1GB |
| Small | 244M | ~2GB |
| Medium | 769M | ~5GB |
| Large | 1550M | ~10GB |
| Large-v2 | 1550M | ~10GB |
| Large-v3 | 1550M | ~10GB |
import torch
from transformers import WhisperProcessor, WhisperForConditionalGeneration
# 选择适合您显存的模型大小,例如"medium"
model_id = "openai/whisper-medium"
# 启用半精度以节省显存
processor = WhisperProcessor.from_pretrained(model_id)
model = WhisperForConditionalGeneration.from_pretrained(
model_id,
torch_dtype=torch.float16,
device_map="auto"
)
# 确保模型在GPU上运行
device = "cuda" if torch.cuda.is_available() else "cpu"
model = model.to(device)