1
kulove 14 小时 25 分钟前 via Android
属于工具调用吧 工具渲染 UI
|
2
annilq 14 小时 12 分钟前
算生成式 UI ,但是生成式 UI 也有几种,一种可能比较简单根据类型和数据自己渲染写好的卡片,另一种是根据 A2UI 协议写,目前 copilotkit ,AI SDK 和 openAI 都有自己的方案
|
3
rm0gang0rf 13 小时 14 分钟前
啥样的, 截个图看看
|
4
lovedebug 13 小时 10 分钟前
|
5
96 13 小时 9 分钟前
|
6
Sfilata 13 小时 8 分钟前
可以参考下这个怎么实现的 https://docs.flutter.dev/ai/genui
|
7
Solix 13 小时 7 分钟前 via iPhone
openai 有一套 ChatKit ,其中有 ChatKit UI ,原理就是定义一套规范,json 生成后渲染出来。文档在这里: https://developers.openai.com/api/docs/guides/chatkit#embed-chatkit-in-your-frontend 可以参考实现
|
8
hiro0729 13 小时 6 分钟前
会不会是自定义 MCP 工具卡片呢?
https://docs.cloudbase.net/ai/agent/toolCard |
9
Pettyfer 12 小时 57 分钟前
我们目前实现是 MCP 提供 UI 层 scheme 描述,UI 拿到 MCP 返回的 scheme 之后再渲染不同类型的 UI
|
10
hb0730 12 小时 40 分钟前
简单来说约定俗成,前端定义几种,算最方便。MCP 返回对应的 scheme
|
11
linkopeneyes 12 小时 13 分钟前 看看这个 https://json-render.dev/ 提示词都是配合只输出这个规范
|
12
zoharSoul 12 小时 12 分钟前
不算
|
13
LuliYanng 7 小时 36 分钟前
感觉不太算,因为这些明显有固定 ui 渲染的没有必要搞 generative ui ,generative ui 更适合的是输出 ui 不确定,或者说更加多样化的场景。前段时间参考 a2ui 尝试了一个 demo ,实际上就是预定义一些原子化的 ui 组件给 ai ,然后 ai 根据这些预定义的“小积木”来搭成一个完整的组件。至于千问这种大规模的活动,没必要用 generative ui ,用了反而大量小号 token ,还带来不稳定性。大概率只是 llm 返回数据给前端渲染一整个做好的组件吧。
|