籌款 9月15日 2024 – 10月1日 2024
關於籌款
書籍搜索
圖書
籌款:
64.1% 已募集
登錄
登錄
訪問更多功能
個人建議
電報機器人
下載歷史
發送到電子郵件或 Kindle
管理書單
保存到收藏夾
個人的
查詢書籍
探索
Z-推薦
書單
最受歡迎
類別
貢獻
捐款
上傳
Litera Library
捐贈紙質書籍
添加紙質書籍
Search paper books
我的 LITERA Point
術語搜索
Main
術語搜索
search
1
해법코드로 설명한 심층강화학습
이승익
학습
강화학습
행동
심층
상태
설명한
해법코드로
행동을
reward
사용하여
그림
보상
정책
device
dqn
신경망
개의
보상을
가치
에이전트가
데이터
위해서
방법은
env
각
모델
값을
게임
대하여
데이터를
행동에
환경
역자주
엔트로피
방법
확률
결과
관찰
다음과
손실
학습을
우선
총
모델을
평균
위
batch
함수는
speed
보자
年:
2020
語言:
korean
文件:
PDF, 31.37 MB
你的標籤:
0
/
5.0
korean, 2020
2
강화학습 입문 - 파이썬 예제와 함께하는 (OpenAI Gym과 TensorFlow 실습 가이드)
홍릉과학출판사
김승현
,
김태우
,
이정원
,
이주행
상태
다음과
행동
행동을
파이썬
실무
심층강화학습
정책을
import
봅시다
함수를
가치
각
에이전트가
정책
강화학습
몬테카를로
reward
보상을
값을
됩니다
range
tensorflow
레이어
최적
같습니다
게임
보겠습니다
openai
policy
입력
reinforcement
폴리시
학습
network
개의
정의합니다
시간차
gym
출력
니다
콘볼루션
상태에서
rewards
보상
살펴
사용하여
이용하여
에이전트는
엡실론
年:
2020
語言:
korean
文件:
PDF, 18.27 MB
你的標籤:
0
/
5.0
korean, 2020
3
한 권으로 끝내는 딥러닝 텐서플로
한빛미디어
바라스 람순다르
,
레자 자데
텐서플로
예제
학습
딥러닝
그림
합성곱
데이터
딥
완전연결
권으로
끝내는
손실
텐서
모델을
모델
네트워크
각
복잡한
dtype
강화학습
순환
이번
함수를
입력
학습할
머신러닝
하이퍼파라미터
신경망
이미지
기본
네트워크를
회귀
지역
수용
니다
함수
아키텍처를
않습니다
텐서플로를
학습하는
데이터를
사용할
경사
됩니다
로지스틱
일반적으로
계산
가능한
아키텍처
layer
年:
2018
語言:
korean
文件:
PDF, 19.68 MB
你的標籤:
0
/
0
korean, 2018
4
강화학습 첫걸음
한빛미디어
아서 줄리아니
학습
보상을
구현
액션을
reward
에이전트는
액션
네트워크
에이전트가
정책
됩니다
import
각
알고리즘
강화학습
sess.run
밴딧
주요
1부
네트워크를
feed_dict
다음과
환경
보상
어드밴티지
에이전트
h_size
sess
tf.placeholder
신경망
타깃
false
이용해
순환
bandit
그리드
딥
에이전트를
에이전트의
shape
tf.float32
값을
같습니다
랜덤한
상태
0.00000000e
액션에
dqn
메타
학
年:
2017
語言:
korean
文件:
PDF, 2.55 MB
你的標籤:
0
/
0
korean, 2017
1
關注
此鏈接
或在 Telegram 上找到“@BotFather”機器人
2
發送 /newbot 命令
3
為您的聊天機器人指定一個名稱
4
為機器人選擇一個用戶名
5
從 BotFather 複製完整的最後一條消息並將其粘貼到此處
×
×