如何在iOS 13和iPadOS中进入辅助功能设置


iOS 13和iPadOS改变了您进入辅助功能设置的方式 。
在iOS 12及更低版本上,“辅助功能”曾经是“设置”应用中的一个子部分 。
但是,鉴于iOS 13上的辅助技术具有许多有意义的改进的广度和范围,因此Apple决定将Accessibility部分上移一个级别,使其现在位于根菜单中,这不足为奇 。
进入iOS 13中的辅助功能设置
请执行以下操作以进入您的辅助功能设置:
1)在具有iOS 13的iPhone或具有iPadOS的iPad上打开“设置” 。
2)向下滚动直到您看到“ 辅助功能”选项 。
它嵌套在“常规”和“显示与亮度”部分之间 。
正如我提到的那样,突出的“辅助功能”位置反映了Apple辅助技术在iOS 13,iPadOS和macOS Catalina中进行的所有更改的重要性 。
如此正确,如下文进一步解释 。
iOS 13:辅助技术有哪些新功能?
【如何在iOS 13和iPadOS中进入辅助功能设置】iOS 13包含了几种新的或改进的辅助技术,包括围绕全新语音控制和听写改进的基于语音的新功能 。
现在,iPhone几乎从一开始就具有语音控制功能 。最初的语音识别功能于2009年6月作为iPhone 3GS独家产品推出,早于Siri 。在iOS 13之前,完全禁用Siri会提示操作系统打开语音控制 。
使用语音控制iPhone
iOS 13之前的基本语音控制功能 。
考虑到语音控制的局限性,它为零 。smarts仅支持某些命令,这意味着它不了解您的上下文,并且无法破译语法变体-难怪Apple完全重新构造了它 。
教程: 如何使用语音控制代替Siri
iOS 13中的语音控制是一项全新功能,任何人都可以使用自己的语音导航任何支持iOS辅助技术的应用,例如Voice Over 。语音控制使用微小的数字,这些数字显示为UI元素(如按钮,菜单项等)上的标签 。只需说“显示数字”即可看到数字出现在屏幕上所有可点击的项目或旁边 。
现在,您只需说一个数字就可以快速选择一些内容 。另一个命令-“显示网格”-在您正要使用的任何应用程序的顶部拉起一个网格覆盖,它使您可以创建将应用程序的任意部分作为参数的命令 。
真的很棒,请查看实际操作 。
装有macOS Catalina 10.15的Mac上也可以使用语音控制 。
除了可以帮助您有效地导航iOS用户界面和应用程序之外,iOS 13中的语音控制,iPad OS和macOS Catalina还充分利用了Siri的机器学习支持的语音识别引擎来实现准确的口述,并且还支持自定义单词以确保功能能够识别您常用的任何特殊字词 。
您甚至可以使用语音控制来纠正单词,设置文本样式,获取表情符号和单词建议,使用语音执行手势,记录多步手势等 。而且由于这是Apple而不是Google或Microsoft,因此所有音频处理都在您的设备上进行,从而确保个人数据不公开 。
另一个很酷的辅助功能是鼠标支持 。
iOS 13还利用了Attention Awareness功能,该功能适用??于带有Face ID的新型设备,当您不看正面的TrueDepth摄像头时,iOS 12中的功能可使显示屏变暗并降低警报音量 。在iOS 13上,如果启用了“注意意识”,则操作系统将在您移开视线与某人交谈时立即将您的声音解释为命令 。
iOS 13中新的基于滑动的QuickPath键盘很棒 。
最后,还有一个新的基于滑动的QuickPath键盘选项 。尽管本质上不是可访问性功能,但QuickPath键盘通过最终将基于轻扫的键入功能引入iOS,确实可以实现更快的文本输入 。iPhone和iPad均提供QuickPath键盘 。

    推荐阅读