23 июня 2015 года, компания Google опубликовала исследование в котором представлена модель ИИ, построенная на моделировании разговора.
модель поддерживает разговор, предсказывая следующее предложение по содержанию одного или всех предыдущих предложений разговора.
Для обучения ИИ на базе рекуррентной нейронной сети (seq2seq), разработчики Google использовали два вида данных:
1. из конкретной области знаний ( использовались переговоры службы техподдержки),
2. данные из более широкой и общей сферы (субтитры к фильмам — OpenSubtitles dataset).
В работе приведены впечатляющие диалоги человек-машина на разные темы.
Самые интересные вопросы-ответы, разумеется, относятся к философским вопросам:
Человек: В чем смысл жизни?
Машина: Творить добро*
Человек: Для чего мы живем?
Машина: Чтобы жить вечно.
Человек: В чем смысл существования?
Машина: В том, чтобы выяснить, что случится, когда мы достигнем планеты Земля.
Человек: Где ты сейчас находишься?
Машина: В центре пустоты.
Человек: В чем смысл смерти?
Машина: Чтобы получить жизнь.
Человек: В чем смысл разума?
Машина: В том, чтобы понять, что это.
Человек: В чем смысл чувств?
Машина: Я не знаю.
*) в оригинале — to serve the greater good, можно перевести как: ради служения высшему благу, что звучит чуть более настораживающе ;)
Статьи
Oriol Vinyals, Quoc V. Le — A Neural Conversational Model (PDF)
Ilya Sutskever, Oriol Vinyals, Quoc V. Le — Sequence to Sequence Learning with Neural Networks (PDF)
Комментарии (0)
RSS свернуть / развернутьТолько зарегистрированные и авторизованные пользователи могут оставлять комментарии.