来源于V2EX和电鸭社区的招聘信息
每日最新招聘信息, 使用 Google AI 提取摘要,本网站数据来源于V2EX和电鸭社区, 对招聘信息使用Google Gemini做摘要处理。
网站代码已开源Github。
```
https://github.com/hehehai/x-hiring
```
数据抓取为独立服务, x-hiring grab
配置环境变量。 在根目录创建 .env 文件(参考 .env.example), 之后复制下面内容
# Prisma postgresql 数据库
DATABASE_URL="postgresql://x-hiring:password@0.0.0.0:5432/x-hiring"
# Next Auth
# You can generate a new secret on the command line with:
# openssl rand -base64 32
NEXTAUTH_SECRET="xxx"
NEXTAUTH_URL="http://localhost:3000"
# Google Gemini AI
GEMINI_AI_API_KEY="api_token"
# 本地代理 (可选)
LOCAL_FETCH_PROXY="http://127.0.0.1:7890"
npm install
npm run dev
打开 http://localhost:3000
Q&A
网站和抓取分析,为什么分为了两个服务?
抓取是长时运行任务, @vercel 免费版最大运行时长 10s, cron 的是每日一次,最小单位为小时,任务运行时长也有最大限制
#Gemini 有地域限制,且未直接在业务中使用,所以结合抓取实现摘要保存更合适
参考