Size: a a a

AI / Искусственный Интеллект

2019 February 27

Y

Yurii in AI / Искусственный Интеллект
Valery Datsyuk
не отвлекайся от критериев
Каких
источник

VD

Valery Datsyuk in AI / Искусственный Интеллект
опять абстрактные вещи, не растекайся мысью по древу.

какие конкретные метрики для ии, чтобы он решил кого спасать, в случае аварии
источник

Y

Yurii in AI / Искусственный Интеллект
Valery Datsyuk
не отвлекайся от критериев
Конкретный пример давай
источник

VD

Valery Datsyuk in AI / Искусственный Интеллект
AI / ИИ
​​Норвежские ученые создают ИИ с моралью

«Этический» ИИ будет присутствовать в различных девайсах с голосовым управлением и сможет оценивать поступки пользователя с точки зрения морали. Если действия человека не будут соответствовать «высоким моральным стандартам» ИИ, то система сообщит о противоправном поступке в правоохранительные органы, правда, сохранит тайну личности своего хозяина.

Авторы разработки представили основные принципы ее действия на научной конференции, где часть слушателей согласилась с доводами ученых и будет им помогать в создании «этического» ИИ, а другие исследователи заявили, что реализация данной концепции невозможна в принципе, поскольку ни одна система ИИ в мире неспособна принять во внимание и взвесить при вынесении решения все факторы, которыми оперирует человек.

Тем не менее помогать в реализации данного проекта уже дали согласие ученые из Голландии и Китая, которые уже начали совместную работу с норвежскими специалистами.
@
источник

Y

Yurii in AI / Искусственный Интеллект
И?
источник

Y

Yurii in AI / Искусственный Интеллект
Раньше жили без этого и сейчас проживут
источник

VD

Valery Datsyuk in AI / Искусственный Интеллект
сможет оценивать поступки пользователя с точки зрения морали. Если действия человека не будут соответствовать «высоким моральным стандартам» ИИ, то система сообщит о противоправном поступке в правоохранительные органы, правда, сохранит тайну личности своего хозяина.

ии будет вести рейтинг каждого человека
посмотри Чёрное Зеркало, там в гипертрофированном виде показано.
Не человеки оценки будут ставить, это слишком субъективно.
источник

VD

Valery Datsyuk in AI / Искусственный Интеллект
Yurii
Раньше жили без этого и сейчас проживут
Лыкова и без электричества живёт, ага
источник

Y

Yurii in AI / Искусственный Интеллект
Valery Datsyuk
сможет оценивать поступки пользователя с точки зрения морали. Если действия человека не будут соответствовать «высоким моральным стандартам» ИИ, то система сообщит о противоправном поступке в правоохранительные органы, правда, сохранит тайну личности своего хозяина.

ии будет вести рейтинг каждого человека
посмотри Чёрное Зеркало, там в гипертрофированном виде показано.
Не человеки оценки будут ставить, это слишком субъективно.
Все равно оцениваться будет по критериям заданным человеком.
источник

VD

Valery Datsyuk in AI / Искусственный Интеллект
Yurii
Все равно оцениваться будет по критериям заданным человеком.
вот я и спрашиваю твои критерии, ты же не согласен с теми.
представь свои
источник

Y

Yurii in AI / Искусственный Интеллект
Valery Datsyuk
вот я и спрашиваю твои критерии, ты же не согласен с теми.
представь свои
Не уверен что вообще необходимо подобного рода вмешательство. Так же эта слежка создается с целью благополучия и устойчивости государства(узкой группы лиц), что не есть равно благополучие гражданина.
источник

VD

Valery Datsyuk in AI / Искусственный Интеллект
Yurii
Не уверен что вообще необходимо подобного рода вмешательство. Так же эта слежка создается с целью благополучия и устойчивости государства(узкой группы лиц), что не есть равно благополучие гражданина.
кого спасать?
источник

Y

Yurii in AI / Искусственный Интеллект
Valery Datsyuk
кого спасать?
В данном контексте стоит вопрос не кого спасать, а кого топить.
источник

VD

Valery Datsyuk in AI / Искусственный Интеллект
https://ru.wikipedia.org/wiki/Проблема_вагонетки

как ни назови, а выбирать нужно
источник

Y

Yurii in AI / Искусственный Интеллект
Для начала надо понимать что в конкретном примере государств решается не проблема этики, а долголетие системы управления в угоду небольшой группы лиц.
источник

VD

Valery Datsyuk in AI / Искусственный Интеллект
ты сосредоточится можешь на проблеме критериев для ии?
источник

Y

Yurii in AI / Искусственный Интеллект
Нужно правильно воспитывать людей с момента рождения а не устраивать контроль.
источник

Y

Yurii in AI / Искусственный Интеллект
Нужно бороться с причиной а не следствием.
источник

VD

Valery Datsyuk in AI / Искусственный Интеллект
Yurii
Нужно правильно воспитывать людей с момента рождения а не устраивать контроль.
мы все за всё хорошее против всего плохого
источник

VD

Valery Datsyuk in AI / Искусственный Интеллект
В 1990-м (25 лет назад) Курцвейл предсказал:

…что компьютер победит чемпиона мира по шахматам к 1998 году. Программа Deep Blue от IBM победила Гарри Каспарова в 1997-м.

…что компьютеры смогут давать ответы на любые вопросы, получая информацию по беспроводному интернету к 2010 году. На самом деле, это произошло даже раньше.

…что в начале 2000-х части экзоскелетов будут помогать инвалидам ходить. Компании как Ekso Bionics и другие уже успешно реализовали эти технологии.

В 1999-м он предсказал:

…что люди будут способны говорить со своими компьютерами, отдавая им команды к 2009 году. Сейчас вышли Siri и Google Now, многие используют голосовые команды для смартфоном и компьютеров.

…что компьютерный интерфейс будет встроен в очки в качестве дополненной реальности к 2009 году. Google начала экспериментировать с очками Google Glass в 2011 году. Кроме Google Glass теперь есть технология Hololens от Microsoft или Magic Leap.

В 2005-м он предсказал:

…что к 2010 году технологии позволят совершать перевод текста в режиме реального времени, чтобы к примеру показывать их в виде субтитров в очках типа Google Glass. Что ж, Skype Translate и Google Translate уже сделали это возможным. Есть еще и приложение World Lens, которое позволяет видеть перевод на экране смартфона в режиме реального времени.
источник