За искусственный интеллект расскажу.
Решил переписать текст из перепоста в
@ioting Это занимательная штука, которая, я уверен, вам кажется чем-то таким далеким и непонятным.
Но на самом деле, вы по-любому сталкиваетесь каждый день. Некоторые алгоритмы просты, некоторые - очень сложные. Но точно ИскИн уже есть в нашей жизни.
Например, вот достаете вы телефон сфоткать себяшку. А там - искин ищет ваше лицо, чтоб в фокусе было. Ой, скажете вы - фигня какая, такое давно есть. Ну да. Давно есть. Но теперь представьте математику, которая ищет лицо в динамической картинке. И такой интеллект не каждому жывотному, кстати, доступен.
Или вот "умная лента" фейсбучика.
Или вот, я щас обзор пишу про теле-еле-видение. Там жесткая конкуренция сейчас. Просто "гнать канал" - это уже позавчерашний день. Это никто не покупает. И всякие "умные телеки" уже умеют подбирать вам контент. Хоккей, например, если вы смотрите. Или кёрлинг, если хоккей не любите.
И там вот что происходит: чем чаще вы смотрите телек, тем больше данных телек (не сама коробка, а сервис, который спрятан в коробке, проводах и железках оператора, серверах вот этих вот басурманских и договорах между вещателем и правообладателем) понимает, что вы любите. Без всяких лайков, а на основании текущих данных. Ну, там сложно, да. Там в профиле собираются все ваши нажатия пульта, отсчитывается время до событий, потом редакторская работа по каталогизации и таксономии контента, и сквозной поиск-анализ.
В итоге вы в первых строчках будете получать свой футбол, если вы его любите. А балет получать не будете, потому что какой, к черту балет, когда пиво. Футбол, короче. Ежели вы смотрите Акбарс, но тут же переключаете Автомобилист, то искин поймет, что при всем вашем обожании футбола, вам лучше не показывать Автомобилиста. Понятно объяснил?
Это все, так называемые "большие данные". И смысл не в том, что данных много, а в том, что для разных условий, могут быть разные исходы вывода информации.
И человечество по этому пути бежит очень быстро. Я прост офигеваю, как быстро. Ибо Netflix Prize за рекомендательные алгоритмы в один миллион долларов был учрежден только в 2007-ом году, а через десять лет это уже мейнстрим, который только в России пилит пять известных мне команд разрабов.
И тут я вам щас мозг сверну.
Дело в том, что мы тут приблизились к точке сингулярности в области Big Data. Сингулярность упирается в этику. Да, мои маленькие любители технологий. Теперь все выводится на новый виток осмысления окружающего мира. Ну, если мы можем собрать дату, потом как-то весело ее обработать и выдать нечто, чем можем управлять как отдельными индивидуумами, так и целыми группами людей, то тут же найдется поц, который сделает из технологии оружие.
Вот думаете, все эти скандалы с "русским следом влияния на выборы Трампа", они от врожденной паранойи? Ни-фи-га. Это вполне себе рабочая ситуация, как оказывается. Придумали "оружие" и неважно, кто это сделал.
Вот почему этика.
Посему, рекомендую ознакомиться с работой простой американской девчушки и по совместительству профессором Нью-Йоркскго универа по искинам Кейт Кроуфорд. Ведущий исследователь Microsoft по направлению и, пожалуй, самый авторитетный ученый по вопросам Big Data и Artifical Intellect.
Работа называется «Десять простых правил при ответственном исследовании больших данных».
Вот эти правила:
https://www.microsoft.com/en-us/research/wp-content/uploads/2017/10/journal.pcbi_.1005399.pdf 1. Признать, что данные принадлежат людям и могут нанести вред
2. Признать, что конфиденциальность - это больше, чем ноли и единицы
3. Остерегайтесь ре-идентификации ваших данных (типа, если кто-то сказал, что он Миша, нефиг спрашивать второй раз - вдруг он передумает)
4. Практическое применение этики в обработке данных (в смысле - раз написал "правила" - следуй им!)
5. Учитывайте сильные и слабые стороны обрабатываемых данных: много данных автоматически не означает, что это лучше
6. Если стоит этический выбор - принимайте сторону этики, а не задачи.