Наткнулась тут на пост западного тестировщика, который пишет, что дрессирует своих разработчиков, заводя сообщения об опечатках, но не указывая, где опечатка найдена. Мол, вот помучаются они, поищут - будут в следующий раз внимательнее текст набирать, а не абы как, все равно тестировщик найдет.
В моей голове не рождается ни один сценарий, при котором результатом такого репорта будет мысль "о да, надо быть внимательнее в следующий раз, а то снова буду два часа искать, где тестировщики опечатку нашли" в голове у разработчика. Скорее это будет мысль "а не забить ли тестировщика клавиатурой до смер напишу, что не воспроизводится, что за фигня-то" в лучшем случае.
Ну или как-то так:
Бывают ли вообще ситуации, в которых оправдано применение подобной тактики (не для опечаток, а в принципе - намеренно упустить что-то в баг-репорте, чтобы разработчик глубже копнул)?
Ожидаемыый результат:
- автотест должен выполняться на двух настроенных nodes одновременно
Текущий результат:
- автотест выполняется только на одной из nodes
Чтение сопутствующих материалов подселило мысль, что распараллеливает выполнение тестов не Selenium Grid, а framework (в нашем случае JUnit) - это верно?
Подскажите пожалуйста (дайте ссылку) как настроить JUnit на параллельное выполнение тестов? (Переезд в TestNG по объективным проектным причинам не возможен).
Есть такой вопрос. У нас есть форма для заполнения (4 поля). Спецификация на нее есть. Подсказок, при некорректно заполненом поле, нет, но есть просто сообщение о неверно введенных данных в форме. Все поля обязательны для заполнения. Как, в таком случае, проводить позитивное тестирование?
Есть текстовое поле с ограничением на вводимые символы: символы латиницы, цифры и знак подчеркивания. Если есть хоть один "левый" символ, то при отправке формы выдается сообщение об ошибке.
Хочу протестировать следующие символы `~!@#$%^&*()+=-"№;:?|\/'<>
Но как это сделать? Если вбить их единой строкой в 1 тест кейс, то сообщение об ошибке лишь даст понять, что один из символов не прошел, какой именно не понятно. А нужно понять какой из них может обойти валидатор.
Приходит в голову лишь написать 20+ кейсов, что не кажется красивым решением.
Или может проверить только самые "опасные", типо ковычек?
Пишу WEB-приложение с REST-архитектурой. Пишу применяя Python и микрофреймворк Flask, а для модульного тестирования исользую встроенный в стандартную библиотеку модуль unittest.
Сейчас мне надо написать тест по проверке фичи "закачка файлов".
Имеется некий URL, допустим 'myapplication.org/files/upload' . Для закачки файлов по этому URL-у шлется POST-запрос с файлом и JSON документов в котором указан токен.
Мое приложение обрабатывая такой запрос проверяет валидность токен и :
Если не корректный отказывается выдая HTTP код ошибки 400
или ложит принятый файл у себя в файловой системе с занесением информации о нем в БД и выдает HTTP код ошибки 201
При написании теста столкнулся с тем, что мне не нравится ни одно из моих решений касающихся хранения файлов необходимого для теста:
Можно положить заранее приготовить файлов в папку 'tests\files\test00.bin'
Можно сгенерировать во время работы setUp() метода и положить файл в 'tests\files\test00.bin'
Можно передавать сам python-модуль в котором написан тест используя его в качестве тестового файла
Мне хочется услышать другие мнения. Прошу посоветовать и решить мою задачку с написанием теста
Наиболее распространенный подход к определению серьезности бага в той или иной формулировке встречается в большинстве источников. Например, у Романа Савина:
Критическая – системный сбой, потеря данных, проблемы с безопасностью.
Значительная – зависание, блокирование использования, кодирования, тестирования