使用AI抓取了30万远程工作机会:外国小哥的血泪创业史

玩转机器人是我 2024-09-04 05:28:42
找工作是一件让人头疼的事,尤其是对那些寻找远程工作机会的人来说。市面上充斥着各种招聘网站,但大多数都乱七八糟,不是重复的职位,就是缺乏透明度。我和很多人一样,对Indeed和LinkedIn这些传统的招聘平台已经失望透顶。 有一个外国小哥,让这种失望成为了他创业的动力,最终让他踏上了开发AI驱动的远程工作搜索引擎的道路,如今它已经收录了超过30万个职位。这篇文章就来讲讲他是怎么折腾出这么个东西的。 如果你只对工作平台有兴趣,直达电梯here:https://hiring.cafe 被传统招聘平台折磨到怀疑人生故事的开头很简单,我就是个找工作的小白,每天被这些所谓的主流招聘网站折磨得怀疑人生。像Indeed和LinkedIn这种平台,简直就是信息的垃圾场,里面塞满了无关紧要的职位广告,简直像在找工作里捡垃圾。每次打开这些平台,我都觉得自己像在大海捞针,效率低得想砸电脑。 有一天,我突然想通了:何必自讨苦吃?于是我决定直接到公司官网上申请工作。虽然这确实绕开了那些乱七八糟的广告和无用信息,但问题是,去每个公司网站上找工作,费时费力,还不一定有结果。于是我开始琢磨,能不能搞个更聪明的工具,直接为那些和我一样的远程工作者服务? 一个“不作死就不会死”的想法这个想法就是HiringCafe的雏形——当然,那时候我还没起这个名字。我想,既然可以直接从公司网站上抓取职位信息,那就完全可以绕开那些垃圾招聘网站了!但光是抓取职位信息还不够,我还得提取出关键的信息,比如薪资、职位要求等等,保证数据准确,信息更新及时。 于是我撸起袖子,开始动手开发一个庞大的系统,这个系统可以处理这些任务,还能把它们做到极致。目标很简单:创建一个巨大的远程工作数据库,让求职者可以方便快捷地找到自己想要的职位。 搞个“大工程”首先,我得开发一个牛逼的爬虫程序,可以从成千上万的公司网站上抓取职位信息。这可不是个小工程。这个爬虫必须足够聪明,能自动识别不同网站的结构,绕开各种反爬措施,还得只抓取有用的信息。我用了一堆工具,比如Puppeteer和Cheerio,来自动化这个过程。 搞定了数据抓取,接下来就是怎么让这些数据变得有用。这里就轮到大语言模型(LLM)登场了,比如GPT。通过把抓取到的数据输入这些模型,我可以提取出职位名称、描述、地点和薪资等关键信息。AI还帮忙过滤掉重复的职位信息,确保数据的准确性。 一路踩坑,反复折腾搞这么个大工程,中间踩坑无数也是意料之中的。最大的问题之一就是确保爬虫程序能应付各种网站结构,不被反爬措施卡死。还有,虽然LLM很强大,但也不是完美的。有时候AI会误解数据,或者提取信息不准确。为了解决这些问题,我反复迭代了爬虫引擎,逐步提高AI解析和理解职位信息的能力。 在这个过程中,我做了一个关键的决定,就是只专注于直接雇主的职位信息,而不去碰猎头公司的职位。这么做是为了保证职位信息的质量和可信度,毕竟很多猎头公司发布的职位都是虚假或者误导性的广告,实在不值得我花时间去处理。 HiringCafe正式上线经过几个月的开发、测试和反复优化,HiringCafe终于上线了。结果就是现在这个牛逼的职位搜索引擎,它拥有35000多家公司的职位数据库,远程工作岗位超过30万个。平台设计得非常用户友好,支持职位名称搜索、薪资过滤和保存搜索记录等功能。 最让我欣慰的是用户的正面反馈。HiringCafe的简洁和高效打动了很多求职者,他们中的不少人都对传统招聘平台感到厌倦,认为HiringCafe简直是救星。 前方路漫漫虽然HiringCafe已经有了一个不错的开始,但这条路还很长。我会继续改进这个平台,添加新功能,扩大职位数据库。未来的一个重要优先事项是保持平台对求职者免费的同时,探索如何在不破坏用户体验的情况下实现盈利。 未来我也在考虑,如果盈利困难,可能会把这个项目开源或者转成非盈利组织(就像维基百科那样)。我的最终目标是打造互联网上最棒的职位搜索引擎,真正满足远程工作者的需求。 HiringCafe的诞生是一个充满挑战但非常值得的旅程。它从我对现有招聘平台的失望开始,最终变成了一个帮助数千人找到远程工作机会的强大工具。如果你也对传统的招聘网站感到无奈,我邀请你来试试HiringCafe。也许你梦寐以求的远程工作机会就在这里等着你。
0 阅读:3

玩转机器人是我

简介:感谢大家的关注