Комментарии:
Подскажите, пожалуйста. Вы в одном уроке разбиваете текст на буквы, в другом - на слова. Но я слышал что наиболее эффективным является разбиение на токены, то есть части слов. Правда ли это и как разбить текст но токены с помощью Tokenizer?
ОтветитьЗдравствуйте, отличный урок! Скажите, пожалуйста, где можно найти файл с обучающей выборкой?
Ответитьдля чего мы удаляли первый пустой символ и знаки препинания? с ними тоже все нормально работает. А если добавить количесво нейронов и количество эпох то вообще сказка получается, совсем чуток не хватет что бы можно было поболтать с НС :). только не понятно почему так долго подбирается следующий символ, казалось это должно происходить быстро, но если поставить длинну ответа в 300 символов например то ждать надо довольно долго.
ОтветитьБыл бы гитхаб 👉👈
ОтветитьКруто! У меня при первой попытке сеть угадала слово в слово. А потом уже пошло свободное творчество. Но для такой простой сети это правда очень крутой результат! Я удивлен)
ОтветитьЗдравствуйте и большое спасибо за ваши уроки.
Напишите пожалуйста а как в этом уроке можно увидеть когда наступает переобучение нейронной сети, ведь выборки валидации у нас нет и соответственно val_loss у нас не показывается?
П.С. Повторил вашу Н.С. по прогнозированию следующего слова, только я сделал больше количество предложений и соответственно увеличилось количество слов, и теперь меня мучает вопрос как проконтролировать что б Н.С. не переобучалась.(Просто 'Validation split= 0.2' добавить?)
я начал учить питон чтобы потом перейти на нейронку или ИИ скажите плз будет ли это актуально через 5-10 лет и какие перспективы у всего этого что можно будет делать с помощью этого?
ОтветитьКак хорошо, что у вас в уроках много живых примеров, а не одна сплошная математика)
ОтветитьПробел, я так понимаю, потому не поставлен перед если, потому что перед ним всегда запятая, а она удалена из выборки
ОтветитьУ меня почему-то tokenizer букву ё не определяет
ОтветитьЛайк, а в каком формате обучающая выборка. Делаю на colab, выдает ошибку:
'utf-8' codec can't decode byte 0xc8 in position 0: invalid continuation byte
Автор зайка, просто лучший курс по нс
ОтветитьА что за первый невидимый символ '\ufeff'?
ОтветитьОтличное видео, здесь понятно, как формируется выходной вектор, размерность входного соответствует выходному . А как задается соответствие если например нам нужно разделить два класса: мужчин и женщин? На вход мы подаем фотографию размера N x N например и соответственно выходов сети у нас будет N x N, а выхода всего два, и как понять что при максимальном значении на первом выходном нейроне будет определяться класс мужчин, а на втором - женщин, а не наоборот? Это вопрос скорее не по этому видео, а в общем. Правильно ли я понимаю, что для этого когда мы формируем обучающую последовательность данных, в качестве ответной реакции на фотографию мужчины мы должны создать вектор [1, 0] если хотим, чтобы реакция на мужчину была на первом нейроне?
Ответитьутренние мысли в понедельник подняться это твой ятосте !
ОтветитьДа, неожиданно хороший результат, спасибо за видео
ОтветитьХочу добавить, что токенайзер раздает индексы символам по частоте их встречаемости в тексте
ОтветитьМне кажется, что в buildPhrase во втором цыкле нужно написать (for j in range(i+inp_chars, i + 2*inp_chars)), а то мы делаем на первые 3 буквы, то есть гадаем четвертый, но дабавляем с конца!!!
Ответитьутреннртентелинеи,в ензн внткео ет н вна ео првнеоею ен / вот получ результат при вероятности 90 проц.Где здесь смисл,
ОтветитьУ меня идея! Надо обучить ее на тексте гороскопа и печатать предсказания!
Ответитьsuper!!!!!
Ответитьне думал, что когда нибудь это скажу.....но, Браво!!!! отличное подача материала, хорошее построение нс, а главное понимание того,что делаете....Браво!!!!
ОтветитьVery nice!
ОтветитьСпасибо большое
ОтветитьСпасибо за видео. У Вас в коде inp_chars = 6, а в комментариях Вы говорите по трем символам предсказываем четвертый, я же правильно понимаю, что все же по шести символам предсказываем седьмой?
И еще вопрос. Я не понял как сеть поняла какой длинной должна быть спрогнозированная фраза?
))) научите ее в футбол играть, забавно было бы посмотреть.
Ответить