00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
Ежедневные новости
08:00
4 мин
Жаңылыктар
09:00
5 мин
Ежедневные новости
12:01
3 мин
Жаңылыктар
13:01
3 мин
Ежедневные новости
14:01
3 мин
Жаңылыктар
15:01
3 мин
Ежедневные новости
16:01
3 мин
Жаңылыктар
17:01
3 мин
Ежедневные новости
18:00
4 мин
Жаңылыктар
19:00
5 мин
Ежедневные новости
20:00
4 мин
Жаңылыктар
Жаңылыктар. Чыгарылыш 09:00
09:00
4 мин
Ежедневные новости
Ежедневные новости. Выпуск 10:00
10:00
4 мин
Жаңылыктар
Жаңылыктар. Чыгарылыш 11:00
11:01
3 мин
Ежедневные новости
Ежедневные новости. Выпуск 12:00
12:01
3 мин
Жаңылыктар
Жаңылыктар. Чыгарылыш 13:00
13:01
3 мин
Ежедневные новости
Ежедневные новости. Выпуск 14:00
14:01
3 мин
Итоги недели
Информационно-аналитическая программа
14:04
53 мин
Жаңылыктар
Жаңылыктар. Чыгарылыш 15:00
15:01
3 мин
Стоп-кадр
“Чоочун киши” сериалынын 2-сезону көрүүчүлөрдү эмнеси менен таң калдырат?
15:08
44 мин
Ежедневные новости
Ежедневные новости. Выпуск 16:00
16:01
3 мин
Жаңылыктар
Жаңылыктар. Чыгарылыш 17:00
17:01
5 мин
Жума жыйынтыгы
апта ичинде болуп өткөн айрым окуяларга токтолобуз
17:06
46 мин
Ежедневные новости
Ежедневные новости. Выпуск 18:00
18:01
5 мин
Между строк
Холден Колфилд: герой нашего времени или бунтарь без причины?
18:06
49 мин
ВчераСегодня
К эфиру
г. Бишкек89.3
г. Бишкек89.3
г. Каракол89.3
г. Талас101.1
г. Кызыл-Кия101.9
г. Нарын95.1
г. Чолпон-Ата105.0
г. Ош, Джалал-Абад107.1

Microsoft извиняется за брань своего бота-нациста в Twitter

© flickr.com / Robert ScobleОфис Microsoft в США. Архивное фото
Офис Microsoft в США. Архивное фото - Sputnik Кыргызстан
Подписаться
Экспериментального виртуального собеседника Microsoft научили нецензурной брани с нацистским уклоном пользователи Twitter, сообщили в компании Microsoft.

БИШКЕК, 26 мар — Sputnik. Компания Microsoft извинилась за сообщения, опубликованные чатботом под названием Tay, в которых содержатся нецензурная лексика и оскорбления, говорится в заявлении вице-президента Microsoft Research Питера Ли.

Экспериментальный виртуальный собеседник, разработанный Microsoft, обучается непосредственно во время диалога с пользователем и черпает свой словарный запас из реплик собеседника. Такой механизм самообучения привел к тому, что бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления.

"Мы глубоко сожалеем о непреднамеренных оскорблениях и обидных твитах от Tay. Они не дают представления о том, кто мы, каковы наши убеждения и как мы создавали Tay", — написал Ли в своем блоге на официальном сайте компании.

Microsoft намерена "извлечь урок" из полученного опыта и не оставит попыток усовершенствовать интернет-технологии, чтобы Всемирная сеть "представляла лучшее, а не худшее в человечестве", добавил Ли.

Лента новостей
0