您当前的位置:首页 >> 财经 >  >> 
天天时讯:全世界最良心的APP!1个功能拯救了50万盲人
来源: 小雷哔哔      时间:2023-03-21 08:00:53


(资料图片仅供参考)

编 辑丨chokst

排 版丨之秋

为回馈粉丝,小雷免费送大家 网盘会员!只需要 留言+点赞, 就有机会获得~

详细请移步至评论区~

如果大家之前有看小雷写的“ChatGPT”文章,应该会对这个新鲜前沿的自然语言模型,有个大概了解。 前几天,小雷也借着GPT-4发布的热度,和大伙盘点了,那些目前已经接入ChatGPT AI且成功落地运行的应用。 和很多人预料的一样,随着ChatGPT接口的开放,很多公司得以调用其能力,让自家产品如虎添翼。比如有人开发【视频总结】网站,在你没空看长视频时,帮你在几秒内总结出视频核心主题。 图源:ChatYoutube 还有人用万能的ChatGPT API,做了个【和文档聊天】网站。 把看不懂,或者不想全部看完的PDF文档扔进去,它能给咱们提取、定位和总结信息。 而且整个过程是“你问它答”,像是一位全知全能的智能助理,有求必应。 图源:小雷哔哔 但怎么说呢,现在ChatGPT被应用的大方向,我总感觉不太对劲。 无论是科技巨头,还是身边的普通人,都会不自觉把它和生产力的提升挂钩。 事实也是如此,很多调用ChatGPT API的产品,本质上还是往生产力和效率上内卷。 图源:小雷哔哔 以至于,小雷身边一些在互联网公司做文案策划的朋友,开始担心本职要被AI所替代。 这其实不是坏事儿,用得好的话,确实能提高工作效率,实现提前摸鱼。 今天文章的提纲,就有ChatGPT的功劳 但小雷认为,科技的发展,不仅仅是为了更好地工作。 也许在人文关怀和生活上,ChatGPT也能为咱们做点什么...恰好我最近看到,有一家专注于做盲人公益App的公司,就把自家App和GPT-4技术相结合,推出了Virtual Volunteer功能。不夸张地说,这功能犹如盲人的另一双眼,能帮他们“看清”世界。 图源:OpenAI。 没错,AI现在能帮盲人们识别生活中各种物体了。 有网友看到这个新功能后,都忍不住发出感叹:这才是ChatGPT的正确打开方式。AI来当我的眼睛

对于盲人朋友们来说,生活中最大的困难莫过于看不见眼前的事物。

刷牙洗漱、煮饭洗碗、超市购物... 这些咱们眼中,随随便便就能干成的事儿,盲人可能要花大半天熟悉环境,才能不出差错地完成。 如果这时候,能有另一双眼睛,来帮助盲人朋友们观察世界和提供建议,生活肯定会方便得多。 Be My Eyes这款App推出的初衷,正是如此。 在很长一段时间里,这款App都保持着相当单调,但又实用的运营策略。 那就是,让网友们成为志愿者,通过视频通话的方式,来帮助有需要的盲人。 图源:Be My Eyes 由于App本身是公益性质的,加上主要使用人群是盲人,所以软件界面设计做得极其简洁。 点开Be My Eyes,映入眼帘的只有两个按钮。 一个是“我需要视觉帮助”,另一个是“我想要成为志愿者”。图源:Be My Eyes 只要大伙有善心和耐心,随时都可以成为志愿者,在盲人的视频通话请求中,帮助他们完成某些任务。 比如盲人在过马路时,不清楚道路状况,这时候就能通过Be My Eyes,找到有空的志愿者帮忙看路。 图源:Be My Eyes 比较让人暖心的是啊,目前这App已经有六百多万名志愿者。 理论上,能覆盖里面接近48万盲人的需求。 图源:Be My Eyes 而且小雷看到,绝大多数志愿者都很乐意去帮助盲人。 把自己的眼睛分享给有需要的盲人,自己也能获得快乐和满足。 图源:推特 但大伙都懂的,即使志愿者再多,他们也不是24小时都能在线。 毕竟志愿者们不是工作人员,也得在现实生活中,和各种琐事对线,被工作占据时间。 盲人朋友很难像找人工客服那样,随时都能联系上对方。 而且从盲人的角度出发,他们肯定也不想啥事都麻烦志愿者。 所以目前的情况是,Be My Eyes虽然能很大程度上,帮助盲人辨别环境事物。 但却无法做到无时无刻,有求必应。图源:Be My Eyes 本来,这个问题是个无解题。 但在GPT-4模型出来后,Be My Eyes总算找到了新的方法。 相比GPT-3.5更先进,GPT-4能处理更复杂的语言任务,这都是新模型的基本操作... 而它最狠的一项特性,莫过于“多模态输入”,说人话就是能看懂图片了。 比如发送下面这张图片给AI模型,问她有啥好笑的地方,它真的能理解图片,并根据问题来回答我们。 图源:medium.com GPT-4这个特性,让Be My Eyes背后的公司大受震撼。 “要是把这模型集成到咱们的App上,不就能做到24小时为盲人识别环境物体了吗?”说干就干啊,最近Be My Eyes就把GPT-4模型塞进了App里。 这样一来,盲人用户随时都可以发送图片给App里的“虚拟志愿者”,让它识别照片里有什么物品。 图源:Be My Eyes 当然啦,简单的识物功能,现在很多App都能做到。 而GPT-4加持的“虚拟志愿者”,则有着更强的理解和对话能力。 比如在识别物体上,它能识别出用户发送的图片里,有哪些衣服。 甚至连衣服的材料和颜色能描述出来,最后还不忘给用户提供建议。 如果AI没能提供满意的答案,用户还能点击底部的【寻求真人志愿者】帮助,App会立刻帮盲人联系其他志愿者。 图源:Be My Eyes 用过ChatGPT的小伙伴们都知道,提供建议只是它最基础的功能。 但把这项特性结合到图片识别中,就显得很牛X了... 比如,把一棵树拍下来发给AI,它不仅识别正确,还会问用户:“你想近距离看还是换个角度看?”在GPT-4模型的加持下,“虚拟志愿者”还能当图片翻译来用。 有一位盲人去超市购物,拿起一瓶中国制造的陈年花雕酒,接着拍照发给虚拟志愿者。 等待几秒,AI就帮用户翻译出图片信息。 这还不是最离谱的...它甚至把这瓶酒的正确使用姿势都写了出来。 怎么用这瓶酒来做菜,具体的做菜步骤,统统给用户安排上。 不过在日常生活中,盲人的出行和导航同样是个大难题。 主流的百度地图和高德地图,只能给咱们提供一个大的路线框架,要是进入到室内,地图App就无能为力了。 而接入GPT-4的Be My Eyes,如今能做到很精确的室内路线导航。 举个例子,盲人去健身房健身,想找到跑步机在哪个位置。 只需把图片拍下来,发给“虚拟志愿者”,他会给用户解释跑步机的具体摆放位置。 在坐地铁这一出行场景中,“虚拟志愿者”也能通过用户拍下来的地铁路线,提供详细的途径站点。 等以后App完善并大面积铺开,盲人出行将会方便得多,很多事儿拍个照就能解决,无需走两步问一人。 更重要的是,这个功能对所有使用App的盲人免费开放,而API的接口费用,则由公司自行承担... 最后

小雷仍记得ChatGPT刚被推出时,满世界都在为此欢呼,直呼这是真正能改变世界的AI。

但是怎么改变呢?它又能带来什么?似乎很多企业和开发者都没想得太深入。
“这玩意儿知识量爆炸,那就用来开发个学外语的工具呗”。“它回复速度那么快,说话又很像人类,拿来当智能客服多省钱”。“还有做表格、总结论文生成摘要、写文案...”
大多数人都把ChatGPT当做生产力工具来使用,这也无可厚非。 但回过头一看,居然有公司把GPT-4的特性,应用在了辅助盲人识别环境的场景上,这何尝不是科技造福人类的一大表现呢? 小雷瞅见,在Be My Eyes官宣该新功能的评论区下,聚集了一大批夸夸党。 有人说,这是他见过最强的ChatGPT应用之一。 图源:推特 还有人表示,这才是ChatGPT最正确的使用姿势。 图源:推特 而小雷则有个不成熟的想法,如果能把“虚拟志愿者”的功能移植到智能眼镜上,说不定体验会更加炸裂。 假如以后GPT-100技术更先进了,能实时识别每一帧的画面并描述出来。 接着让盲人戴上具有GPT-100特性的智能眼镜,再配合蓝牙耳机,把AI看到的画面,用语言转述给盲人。 或许,这才是盲人真正的“第二双眼睛”。 当然啦,实现实时画面识别,是需要超高算力支撑的,目前的ChatGPT也还没做到这个程度。 但总的来说,科技的发展,确实让咱们的生活变得更美好了,希望以后能有更多无障碍应用出现吧。 · ·
标签: