大家好,我是曾东威,AI持续学习探索者,也是经历多个互联网赛道的打工人,很高兴收到凌总的邀请,在私董会进行分享。
我在2016年开始参与校园业务,那时候第一家加入的校园企业是斗米兼职,然后也有幸在斗米做到了一个全国top的一个结果,之后的话陆续加入了搜狐、百度等这些企业,然后自己也做校园的租车业务,零食盒子业务,覆盖了郑州大学、河南工业大学、郑州轻工业大学等。最后我还在校园做了电信业务,开了2家自己的校园电信营业厅,承接电话卡、宽带业务。
毕业之后,我首先是进入了在线教育的行业,去过猿辅导,作业帮,后来的话也是可能大学是留下的一个创业的基因,自己跟朋友一块儿出来做了这个数据标注AI人工智能这一块。当时也是做的是属于交付方,先后服务了科大讯飞、百度、海天瑞声等等这些数据厂商,做了将近一年多。
纵向比较了一下标注的业务,需求量确实很大,但是我们作为一个小的创业团队,很难有一个更大的提升,后来我重新又回归了职场方向,之后去了贝壳找房,后来又去到了哈啰出行,担任城市经理以及中台策略运营运营的工作,再到去年,在郑州这边看到了有AI的机会,就来到蚂蚁子公司这边做AI高级人工智能训练师。
GPT 中 G(Generation 生成)、P(Pre-Train 预训练)、T(transformer),P中的预训练意思就是将世界上处理好的知识输入进 大模型 当中,让大模型学到里面的知识,并产生所谓的推理 与 涌现 的能力。
Token 在大语言模型(LLM)中有特殊的意义,Token代表模型可以理解和生成的最小意义单位,是LLM 的基础单元。
经常可以看到,一些开源LLM 都分两个版本,分别为Base 版本 和 Chat 版本,前者是预训练阶段完成后的原始模型,由于没有跟人类偏好对齐,虽然不能直接“对话”,但各项任务的精度是最佳状态,适合拿来作为“底座”二次开发。
后者则是对齐了人类偏好,可以也可以理解Chat 版本需要做一些人类强化、非法拒答 等约束 & 强化型任务,让LLM 更方便、安全与用户进行交互。Base 模型是在大规模语料上以LM这种形式的预训练任务训练得来的。Chat模型是在base模型上sft(有监督微调) + RLHF(人工反馈强化学习)上微调得来的直接对话的版本,用部分任务的精度来换取了流畅的自由对话。
我们根据ChatGPT给出的详细操作步骤,可以通过快捷键ALT+F11打开Excel下的VBA编辑器,然后把对应的Excel代码复制进去;也能够在Excel的表格界面里,通过快捷键ALT+F8唤起宏的对话框,执行这段宏。你可以试一下,这段VBA的宏的确能够将我们表格里面的第一列,复制到第二列里面。
大学生都可以利用 Stable Diffusion 来设计海报、T恤图案、社交媒体图像,自动生成用户的头像、博客配图等。
步⻓影响时间与效果,通常 30 够了,Seed 决定了画⾯内容,CFG Scale 决定了画家⾃由度。
AI时代的爆发,我觉得对于现在的大学生而言是最好的时代,现在的工作岗位已经开始慢慢的转向AI加相关的工作岗位,比如AI开发工程师、AI设计师、AI产品经理等等。当代大学生正好走到了这个AI时代爆发的前沿,去使用AI,成为AI工具的使用者,对于之后我们的职业发展是有巨大的助力的。
关于AI,对于非技术专业的同学,并没有那么遥不可及,花一些时间就容易上手,而这也是校园从业者值得关注和探索的方向。
最后,发下我的资源:数据采标全链路的业务管理经验,有标注基地资源推荐,有AI数据供应商资源,以及甲方客户。如果你对AI赛道感兴趣,欢迎相互交流。
上一篇:2024年省职业院校技能大赛环境艺术设计项目在扬举 下一篇:三明市召开2024年第一季度通信建设及市场规范例会