介绍技术栈
搭建环境:Mac 开发工具:Android Studio SDK:API34 版本:安卓,小米14
AndroidApp采用了Google的主流UI框架技术:Jetpack Compose3,以及Kotlin语言结合机器学习和模型,实现了智能的交互对话。
重点功能实现
1.这种基于图像的表达方式,包含辅助听障儿童,还为了自闭症儿童和聋人群体提供了一种直观的交流工具。用户无需手动输入文字,只需简单地点击图片,自动生成对话,简化了沟通过程,使自我表达变得更加容易。
2.我有考虑过,在面对面交流时,手语在表达单个词汇时非常直观,但在表达长句子时缺乏了流畅性,而是组织词语表达。通过使用Gemma技术识别关键词汇,我们可以帮助特殊群体整理思路,使他们的表达更加流畅。
3.接受知识信息非常有限,比如对于遇到未知物品或概念的情况,可以通过拍照和上传图片,利用先进的图像识别技术告诉自己认识了物品的名称和相关信息,就能快速学习和了解周围的事物。
4.确保听障和自闭症儿童都能轻松使用,包含自定义对话、复制粘贴功能和对辅助技术的支持。
5.识别手语图片输入的话,生成对话。
6.可用学习辅助工具。
衷心感谢Google内部的认可,我非常感激工作人员给予的高度赞同,我会继续努力!
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。