[Topic DIscussion] AI融入操作系统应该是怎么样的?
Tofloor
poster avatar
75020
deepin product team
2024-05-16 15:38
Author

苹果4月发布了Ferret-Ul通过识别收集屏幕上能执行的任务的多模态模型。

image.png

有传闻苹果下一代系统要上AI功能,国内国外大厂都在扎堆喊口号,也在推出各种大模型,那到底什么才是未来的"AI 操作系统"呢?

Reply Favorite View the author
All Replies
DebuggerX
deepin
2024-05-16 16:07
#1

本人背景:8年大前端开发,做过硬件相关的大健康产品,有过AIGC C端产品开发经验,现在的工作和硬件(具身机器人)/AI都有一点关系。

个人理解:AI 操作系统的下一步,应该是在交互方式上的改变。现在的PC主要输入方式是鼠标键盘,移动端主要是触屏,交互方式一般是launcher点选icon打开app使用其预设的功能。

以后的AI终端很可能会更多的使用各种传感器,比如麦克风、摄像头,直接从听觉、视觉的层面获取用户输入,甚至某些场景下可以配合心电传感器、触觉传感器,乃至脑机接口直接采集或识别生物信息,分析出用户的状态和意图,直接处理给出预期的结果,这个结果不一定是通过屏幕显示,可能是语音回答、可能是直接通过网络控制局域网或者云端的设备或服务,也可能是通过机器人终端执行某些具体动作……

所以在我看来,其实现在各种系统和设备所谓的加入“AI”都只是在现有形态上加入了“访问AI的便捷入口”,深入一点的也就是把AI给出的结果变为系统支持的action去执行,其实也还是很初级的阶段。发展到后面,应该是要弱化系统和终端设备的存在,系统并不一定需要界面和各种应用暴露给用户,只要能够提供输入->AI->输出的能力即可,只是不同设备由于输入(传感器的种类和数量)设备和输出方式(比如具身机器人就能做工作,说话,显示表情,能联网控制等)的不同而展现出不同的能力。

Reply View the author
偷捧时间煮酒喝
deepin
2024-05-16 16:17
#2

现在的AIPC,更多的是AI+PC。并没有做到AI和PC的融合。

Reply View the author
75020
deepin product team
2024-05-16 16:19
#3
DebuggerX

本人背景:8年大前端开发,做过硬件相关的大健康产品,有过AIGC C端产品开发经验,现在的工作和硬件(具身机器人)/AI都有一点关系。

个人理解:AI 操作系统的下一步,应该是在交互方式上的改变。现在的PC主要输入方式是鼠标键盘,移动端主要是触屏,交互方式一般是launcher点选icon打开app使用其预设的功能。

以后的AI终端很可能会更多的使用各种传感器,比如麦克风、摄像头,直接从听觉、视觉的层面获取用户输入,甚至某些场景下可以配合心电传感器、触觉传感器,乃至脑机接口直接采集或识别生物信息,分析出用户的状态和意图,直接处理给出预期的结果,这个结果不一定是通过屏幕显示,可能是语音回答、可能是直接通过网络控制局域网或者云端的设备或服务,也可能是通过机器人终端执行某些具体动作……

所以在我看来,其实现在各种系统和设备所谓的加入“AI”都只是在现有形态上加入了“访问AI的便捷入口”,深入一点的也就是把AI给出的结果变为系统支持的action去执行,其实也还是很初级的阶段。发展到后面,应该是要弱化系统和终端设备的存在,系统并不一定需要界面和各种应用暴露给用户,只要能够提供输入->AI->输出的能力即可,只是不同设备由于输入(传感器的种类和数量)设备和输出方式(比如具身机器人就能做工作,说话,显示表情,能联网控制等)的不同而展现出不同的能力。

“AI”都只是在现有形态上加入了“访问AI的便捷入口”,深入一点的也就是把AI给出的结果变为系统支持的action去执行,其实也还是很初级的阶段

同感。 打通应用,理解用户意图......

Reply View the author
DebuggerX
deepin
2024-05-16 16:38
#4
DebuggerX

本人背景:8年大前端开发,做过硬件相关的大健康产品,有过AIGC C端产品开发经验,现在的工作和硬件(具身机器人)/AI都有一点关系。

个人理解:AI 操作系统的下一步,应该是在交互方式上的改变。现在的PC主要输入方式是鼠标键盘,移动端主要是触屏,交互方式一般是launcher点选icon打开app使用其预设的功能。

以后的AI终端很可能会更多的使用各种传感器,比如麦克风、摄像头,直接从听觉、视觉的层面获取用户输入,甚至某些场景下可以配合心电传感器、触觉传感器,乃至脑机接口直接采集或识别生物信息,分析出用户的状态和意图,直接处理给出预期的结果,这个结果不一定是通过屏幕显示,可能是语音回答、可能是直接通过网络控制局域网或者云端的设备或服务,也可能是通过机器人终端执行某些具体动作……

所以在我看来,其实现在各种系统和设备所谓的加入“AI”都只是在现有形态上加入了“访问AI的便捷入口”,深入一点的也就是把AI给出的结果变为系统支持的action去执行,其实也还是很初级的阶段。发展到后面,应该是要弱化系统和终端设备的存在,系统并不一定需要界面和各种应用暴露给用户,只要能够提供输入->AI->输出的能力即可,只是不同设备由于输入(传感器的种类和数量)设备和输出方式(比如具身机器人就能做工作,说话,显示表情,能联网控制等)的不同而展现出不同的能力。

另外,个人其实对AI的发展持悲观态度,这个悲观不是说觉得AI发展不下去,而是认为AI继续发展会伤害到绝大部分人。

或者换句话说,我不认为AI会甘于只做“赋能”的角色(或者说资本家不会允许AI只做这个角色),而是会确确实实替代很多工作和人,抢走很多人劳动的机会,使其在资本社会中丧失价值。

你以为是AI让系统更好用了,实际可能是AI发展后根本不需要系统了;

你以为是AI让手机更好用了,实际可能是AI发展后现在手机这个形态的终端也没了;

你以为是AI帮人提高效率赚更高的工资,实际可能是直接AI把活儿干了,人失业了……

就人性而言,我不相信会像某些乐观主义者希望的那样推行UBI(全民基本收入)。最终可能就是万分之一掌握资源的精英阶层享受所有AI带来的便利,其余都是底层大众,在赛博朋克中艰难求生🤕

Reply View the author
乾豫恒益
deepin
2024-05-16 17:04
#5

AI是赋能,不是全能。

现在的AI是搜索,不是意识。

系统融入这东西,是要将硬件资源给别人免费用吗?

Reply View the author
来自Ubuntu的某位用户
deepin
2024-05-16 21:41
#6

可以把Github上的AICMD项目里的源码里Gemini替换为国产AI的API

Reply View the author
神末shenmo
deepin
Spark-App
2024-05-17 01:42
#7
DebuggerX

另外,个人其实对AI的发展持悲观态度,这个悲观不是说觉得AI发展不下去,而是认为AI继续发展会伤害到绝大部分人。

或者换句话说,我不认为AI会甘于只做“赋能”的角色(或者说资本家不会允许AI只做这个角色),而是会确确实实替代很多工作和人,抢走很多人劳动的机会,使其在资本社会中丧失价值。

你以为是AI让系统更好用了,实际可能是AI发展后根本不需要系统了;

你以为是AI让手机更好用了,实际可能是AI发展后现在手机这个形态的终端也没了;

你以为是AI帮人提高效率赚更高的工资,实际可能是直接AI把活儿干了,人失业了……

就人性而言,我不相信会像某些乐观主义者希望的那样推行UBI(全民基本收入)。最终可能就是万分之一掌握资源的精英阶层享受所有AI带来的便利,其余都是底层大众,在赛博朋克中艰难求生🤕

同意

Reply View the author