print ('Приветствуем вас в калькуляторе Python')
q1 = int (input('Введите число 1: '))
q2 = int (input('Введите число 2: '))
v = int (input('Какую операцию вы хотите выполнить? \n 1 Сложение \n 2 Вычитание \n 3 Деление \n 4 Умножение \n'))
if v == 1:
r = q1 + q2
p = 'сложения'
t = p
if v == 2:
r = q1 - q2
l = 'вычитания'
t = l
if v == 3:
r = float(q1 / q2)
m = 'деления'
t = m
if v == 4:
r = q1 * q2
n = 'умножения'
t = n
print ('Результат ',t,' = ',r)
замечания по существу:
1. код ожидает, что пользователь вводит только целые числа и (в третьем инпуте) - только целые числа из определенного диапазона. В случае ввода строки - код упадет с ошибкой приведения к типу int, но это не страшно. Хуже, когда пользователь введет дробное число (например разделит на 0.87). Это уже ошибка уровня семантики, когда программа будет работать, но выдаст неожиданный результат
2. Не понятен смысл переменных "l" и "m"если сразу за их определением - на них же ссылается t и далее в коде используется только t. Почему бы не обойтись одной переменной t?
3. Отсутствует область допустимых значений. Как минимум для деления она обязана быть задана. В случае q2 == 0 получится ошибка деления на нуль