[prg] Программирование взаимодействия с экраном в android со скринридерами
Всех приветствую. 1. Подскажите пожалуйста,реально ли,и если да,то
как,реализовать озвучивание координат той точки,которой я касаюсь одним
пальцем и которую я отпускаю. Я задавал здесь похожий вопрос,но тот
класс,ссылку на который мне дали,как я понял,требует создание view в
activity,а поскольку программа написана только для незрячих и,на мой
взгляд,можно обойтись без view,я,как бы это не звучало странно,решил
создать activity без view. Если это реально,дайте пожалуйста ссылку на
документацию на этот класс,можно даже и на английском,поскольку на
русском не существует почти не одного материала про accessebility api
для android,поэтому если это есть хотя бы на английском,то дайте
пожалуйста ссылку на этот класс. 2. Реально ли,и если да,то
как,реализовать жесты в приложении (activity может быть и с view и без
view),которые будут работать даже с talkback. Например,чтобы при свайпе
в моём приложении одним пальцем в любую сторону работало и мне,при
включённом talkback,не нужно было делать этот жест двумя пальцами. Если
это реально,также дайте пожалуйста ссылку на документацию по
соответствующему api. 3. Подскажите пожалуйста,как реализовать у view
такое поведение,чтобы их нельзя было находить свайпами,а можно было
находить либо с клавиатуры либо путём прощупывания экрана. По-моему я
точно где-то видел это в osmand,да и в обучающих уроках по
voiceassistant такие view демонстрировались,по крайней мере в одном из
уроков это точно есть. Может для этого как-то нужно работать не с view а
со всей activity? Заранее благодарю всех за помощь.