99爱在线视频这里只有精品_窝窝午夜看片成人精品_日韩精品久久久毛片一区二区_亚洲一区二区久久

合肥生活安徽新聞合肥交通合肥房產生活服務合肥教育合肥招聘合肥旅游文化藝術合肥美食合肥地圖合肥社保合肥醫院企業服務合肥法律

代寫FIT3181: Deep Neural Networks
代寫FIT3181: Deep Neural Networks

時間:2024-09-03  來源:合肥網hfw.cc  作者:hfw.cc 我要糾錯


FIT3181: Deep Learning (2024)

Deep Neural Networks

Due: 11:55pm Sunday, 8 September 2024 (Sunday)

Important note: This is an individual assignment. It contributes 25% to your final mark. Read the assignment instructions carefully.

What to submit

This assignment is to be completed individually and submitted to Moodle unit site. By the due date, you are required to submit one single zip file, named  xxx_assignment01_solution.zip where  xxx is your student ID, to the corresponding Assignment (Dropbox) in Moodle. You can use Google Colab to do Assigmnent 1 but you need to save it to an   *.ipynb file to submit to the unit Moodle.

More importantly, if you use Google Colab to do this assignment, you need to first make a copy of this notebook on your Google drive .

For example, if your student ID is 12356, then gather all of your assignment solution to folder, create a zip file named 123456_assignment01_solution.zip and submit this file.

Within this zipfolder, you must submit the following files:

1. Assignment01_solution.ipynb: this is your Python notebook solution source file.

2. Assignment01_output.html: this is the output of your Python notebook solution exported in html format.

3. Any extra files or folder needed to complete your assignment (e.g., images used in your answers).

Since the notebook is quite big to load and work together, one recommended option is to split solution into three parts and work on them seperately. In that case, replace Assignment01_solution.ipynb by three notebooks: Assignment01_Part1_solution.ipynbAssignment01_Part2_solution.ipynb and Assignment01_Part3_solution.ipynb

You can run your codes on Google Colab. In this case, you have to make a copy of your Google colab notebook including the traces and progresses of model training before submitting.

Part 1: Theory and Knowledge Questions    [Total marks for this part: 30 points]

The first part of this assignment is to demonstrate your knowledge in deep learning that you have acquired from the lectures and tutorials materials. Most of the contents in this assignment are drawn from the lectures and tutorials from weeks 1 to 4. Going through these materials before attempting this part is highly   recommended.

Question 1.1 Activation function plays an important role in modern Deep NNs. For each of the activation functions below, state its output range, find its derivative (show your steps), and plot the activation fuction and its derivative

(b) Gaussian Error Linear Unit (GELU): GELU(x) = xΦ(x) where Φ(x) is the  probability cummulative function of the standard Gaussian distribution or  Φ(x) = P (X ≤ x) where X ~ N (0, 1) . In addition, the GELU activation fuction (the link for the main paper (https://arxiv.org/pdf/1606.08415v5.pdf)) has

been widely used in the state-of-the-art Vision for Transformers (e.g., here is the link for the main ViT paper (https://arxiv.org/pdf/2010.11929v2.pdf)).  [1.5 points]

Write your answer here. You can add more cells if needed.

Question 1.2: Assume that we feed a data point with a ground-truth label y = 2 to the feed-forward neural network with the  ReLU activation function as shown in the following figure 

(a) What is the numerical value of the latent presentation h1 (x)?  [1 point]

(b) What is the numerical value of the latent presentation h2 (x)?   [1 point]

(c) What is the numerical value of the logith3 (x)?   [1 point]

(d) What is the corresonding prediction probabilities p(x)?   [1 point]

(e) What is the predicted label y(^)? Is it a correct and an incorect prediction? Remind that y = 2. [1 point]

(f) What is the cross-entropy loss caused by the feed-forward neural network at (x, y)? Remind that y = 2.  [1 point]

(g) Why is the cross-entropy loss caused by the feed-forward neural network at (x, y) (i.e., CE(1y, p(x))) always non-negative? When does this CE(1y, p(x)) loss get the value 0? Note that you need to answer this question for a general pair (x, y) and a general feed-forward neural network with, for example M = 4  classes?   [1 point]

You must show both formulas and numerical results for earning full mark. Although it is optional, it is great if you show your PyTorch code for your computation.

Question 1.3:

For Question 1.3, you have two options:

·   (1) perform the forwardbackward propagationand SGD update for  one mini-batch (10 points), or

·   (2) manually implement a feed-forward neural network that can work on real tabular datasets (20 points).

You can choose either (1) or (2) to proceed.

Option 1         [Total marks for this option: 10 points]

Assume that we are constructing a multilayered feed-forward neural network for a classification problem with three classes where the model parameters will be generated randomly using your student IDThe architecture of this network is 3(Input) → 5(ELU) → 3(output) as shown in the following figure. Note that the ELU has the same formula as the one in Q1.1.

We feed a batch X with the labels Y as shown in the figure. Answer the following questions. 

You need to show both formulas, numerical results, and your PyTorch code for your computation for earning full marks.

In  [  ]:

Out[3]:

<torch._C.Generator at 0x7dc439f98810>

In  [  ]:

#Code to generate random matrices and biases for W1, b1, W2, b2

Forward propagation

(a) What is the value of h(¯)1 (x) (the pre-activation values of h1 )?  [0.5 point]

In  [  ]:

(b) What is the value of h1 (x)?   [0.5 point]

In  [  ]:

(c) What is the predicted value y(^)?  [0.5 point]

In  [  ]:

(d) Suppose that we use the cross-entropy (CE) loss. What is the value of the CE loss l incurred by the mini-batch? [0.5 point]

In  [  ]:

Backward propagation

(e) What are the derivatives   ,  , and ?  [3 points]

In  [  ]:

(f) What are the derivatives  ,  ,  , and  ?   [3 points]

In  [  ]:

SGD update

(g) Assume that we use SGD with learning rate η = 0.01 to update the model parameters. What are the values of W 2 , b2 and W 1 , b1  after updating?  [2 points]

In  [  ]:

Option 2    [Total marks for this option: 20 points]

In  [  ]:

import torch

from torch.utils.data import DataLoader

from torchvision import datasets, transforms

In Option 2, you need to implement a feed-forward NN manually using PyTorch and auto-differentiation of PyTorch. We then manually train the model on the MNIST dataset.

We first download the  MNIST dataset and preprocess it.

In  [  ]:

Each data point has dimension   [28,28] . We need to flatten it to a vector to input to our FFN.

In  [  ]:

train_dataset.data = train_data.data.view(-1, 28*28)  test_dataset.data = test_data.data.view(-1, 28*28)

train_data, train_labels = train_dataset.data, train_dataset.targets  test_data, test_labels = test_dataset.data, test_dataset.targets

print(train_data.shape, train_labels.shape)

print(test_data.shape, test_labels.shape)

In  [  ]:

train_loader = DataLoader(dataset=train_dataset, batch_size=64, shuffle=True)  test_loader = DataLoader(dataset=test_dataset, batch_size=64, shuffle=False)

Develop the feed-forward neural networks

(a) You need to develop the class  MyLinear with the following skeleton. You need to declare the weight matrix and bias of this linear layer.  [3 points]

In  [  ]:

(b) You need to develop the class  MyFFN with the following skeleton   [7 points]

In  [  ]:

In  [  ]:

myFFN = MyFFN(input_size = 28*28, num_classes = 10, hidden_sizes = [100, 100], act = torch.nn.ReLU)  myFFN.create_FFN()

print(myFFN)

(c) Write the code to evaluate the accuracy of the current  myFFN model on a data loader (e.g., train_loader or test_loader).   [2.5 points]

In  [  ]:

(c) Write the code to evaluate the loss of the current  myFFN model on a data loader (e.g., train_loader or test_loader).  [2.5 points]

In  [  ]:

def compute_loss(model, data_loader):

"""

This function computes the loss of the model on a data loader

"""

#Your code here

Train on the  MNIST data with 50 epochs using  updateSGD .

In  [  ]:

(d) Implement the function  updateSGDMomentum in the class and train the model with this optimizer in   50 epochs. You can update the corresponding function in the  MyFNN class.   [2.5 points]

In  [  ]:

(e) Implement the function  updateAdagrad in the class and train the model with this optimizer in   50 epochs. You can update the corresponding function in the MyFNN class.  [2.5 points]

In  [  ]:

Part 2: Deep Neural Networks (DNN)   [Total marks for this part: 25 points]

The second part of this assignment is to demonstrate your basis knowledge in deep learning that you have acquired from the lectures and tutorials materials. Most of the contents in this assignment are drawn from the tutorials covered from weeks 1 to 2. Going through these materials before attempting this assignment is highly recommended.

In the second part of this assignment, you are going to work with the FashionMNIST dataset for image recognition task. It has the exact same format as MNIST (70,000 grayscale images of 28 × 28 pixels each with 10 classes), but the images represent fashion items rather than handwritten digits, so each class is more  diverse, and the problem is significantly more challenging than MNIST.

In  [  ]:

import torch

from torch.utils.data import DataLoader

from torchvision import datasets, transforms torch.manual_seed(1234)

Load the Fashion MNIST using   torchvision

In  [  ]:

torch.Size([60000, 28, 28]) torch.Size([60000]) torch.Size([10000, 28, 28]) torch.Size([10000]) torch.Size([60000, 784]) torch.Size([60000])

torch.Size([10000, 784]) torch.Size([10000])

Number of training samples: 18827  Number of training samples: 16944  Number of validation samples: 1883

Question 2.1: Write the code to visualize a mini-batch in  train_loader including its images and labels.  [5 points]

In  [  ]:

####Question 2.2: Write the code for the feed-forward neural net using PyTorch   [5 points]

We now develop a feed-forward neural network with the architecture 784 → 40(ReLU) → 30(ReLU) → 10(softmax) . You can choose your own way to implement your network and an optimizer of interest. You should train model in 50 epochs and evaluate the trained model on the test set.

In  [  ]:

Question 2.3: Tuning hyper-parameters with grid search   [5 points]

Assume that you need to tune the number of neurons on the first and second hidden layers n1   ∈ {20, 40} , n2  ∈ {20, 40} and the used activation function act ∈ {sigmoid, tanh, relu} . The network has the architecture pattern 784 → n1 (act) → n2 (act) → 10(softmax) where n1 , n2 , and act are in their

grides. Write the code to tune the hyper-parameters n1 , n2 , and act. Note that you can freely choose the optimizer and learning rate of interest for this task.

In  [  ]:

 

請加QQ:99515681  郵箱:99515681@qq.com   WX:codinghelp




 

掃一掃在手機打開當前頁
  • 上一篇:COMP20003代寫、代做c/c++,Java語言編程
  • 下一篇:代寫ECON1011 Economics for Business
  • 無相關信息
    合肥生活資訊

    合肥圖文信息
    2025年10月份更新拼多多改銷助手小象助手多多出評軟件
    2025年10月份更新拼多多改銷助手小象助手多
    有限元分析 CAE仿真分析服務-企業/產品研發/客戶要求/設計優化
    有限元分析 CAE仿真分析服務-企業/產品研發
    急尋熱仿真分析?代做熱仿真服務+熱設計優化
    急尋熱仿真分析?代做熱仿真服務+熱設計優化
    出評 開團工具
    出評 開團工具
    挖掘機濾芯提升發動機性能
    挖掘機濾芯提升發動機性能
    海信羅馬假日洗衣機亮相AWE  復古美學與現代科技完美結合
    海信羅馬假日洗衣機亮相AWE 復古美學與現代
    合肥機場巴士4號線
    合肥機場巴士4號線
    合肥機場巴士3號線
    合肥機場巴士3號線
  • 短信驗證碼 trae 豆包網頁版入口 目錄網 排行網

    關于我們 | 打賞支持 | 廣告服務 | 聯系我們 | 網站地圖 | 免責聲明 | 幫助中心 | 友情鏈接 |

    Copyright © 2025 hfw.cc Inc. All Rights Reserved. 合肥網 版權所有
    ICP備06013414號-3 公安備 42010502001045

    99爱在线视频这里只有精品_窝窝午夜看片成人精品_日韩精品久久久毛片一区二区_亚洲一区二区久久

          9000px;">

                国产精品99久久久久久有的能看| 丝袜美腿成人在线| 欧美日韩不卡视频| 国产精品免费观看视频| 图片区小说区国产精品视频| 中文在线一区二区| 9l国产精品久久久久麻豆| 韩国女主播成人在线观看| 欧美亚洲丝袜传媒另类| 亚洲777理论| 国产一级精品在线| 久久先锋资源网| 成人av网站大全| 精品一区二区成人精品| 国产亚洲精品aa午夜观看| 一区二区高清视频在线观看| 99久久免费视频.com| 免费在线看成人av| 久久这里只有精品首页| 色网站国产精品| 奇米影视7777精品一区二区| 欧美精品一区二区三区高清aⅴ| 在线亚洲精品福利网址导航| 麻豆国产91在线播放| 亚洲电影你懂得| 国产精品嫩草影院av蜜臀| 91精品国产色综合久久| 色婷婷精品大在线视频| 日本一区二区三区四区在线视频| 色偷偷久久一区二区三区| 国产成人在线视频网站| 狠狠久久亚洲欧美| 麻豆91精品视频| 亚洲成人福利片| 欧洲一区在线观看| 在线观看av一区二区| 欧美三级蜜桃2在线观看| 色琪琪一区二区三区亚洲区| 国产精品系列在线播放| 成人一级片网址| 日韩小视频在线观看专区| 欧美v亚洲v综合ⅴ国产v| 欧美va亚洲va香蕉在线| 久久久久久久精| 一区二区三区高清| 日韩电影一区二区三区四区| 蜜臀av一级做a爰片久久| 美国欧美日韩国产在线播放| 亚洲啪啪综合av一区二区三区| 久久久影视传媒| 欧美精品99久久久**| 91黄色免费版| 欧美丝袜自拍制服另类| 欧美精品丝袜中出| 日本一区二区不卡视频| 亚洲黄色免费网站| 视频一区二区不卡| 色综合久久久久综合99| 欧美大胆一级视频| 日韩午夜激情免费电影| 精品国产乱码久久久久久夜甘婷婷| 欧美经典三级视频一区二区三区| 免费的成人av| 欧美日韩国产影片| 亚洲国产成人一区二区三区| 91免费国产在线观看| 欧美日韩一区视频| 国产欧美一区二区精品仙草咪| 激情国产一区二区| 一本一道综合狠狠老| 日韩久久一区二区| 国产在线精品免费| 蜜臀av在线播放一区二区三区| 国产欧美日韩另类一区| 亚洲在线中文字幕| 最新高清无码专区| 日本精品裸体写真集在线观看| 五月婷婷综合在线| 欧美一区二区视频在线观看| 精品婷婷伊人一区三区三| 欧美成人在线直播| 国产69精品久久久久毛片| 色综合久久综合| 久久嫩草精品久久久久| 另类调教123区| 欧美视频在线一区| 欧美亚洲国产怡红院影院| 毛片一区二区三区| 欧洲亚洲国产日韩| 亚洲一区二区在线视频| 91蜜桃免费观看视频| 国产乱色国产精品免费视频| 91精品国产乱| av在线免费不卡| 国产一区二区在线视频| 亚洲一区二区三区视频在线 | 成人av在线一区二区| 国产精品高潮久久久久无| 视频一区中文字幕国产| 制服视频三区第一页精品| 岛国av在线一区| 精品午夜久久福利影院| 91国产免费观看| 日本中文字幕一区二区有限公司| 色综合欧美在线| 午夜国产精品影院在线观看| 欧美日韩综合在线免费观看| 欧美高清在线视频| 91小视频免费观看| 日本一区二区视频在线观看| 91热门视频在线观看| 精品视频资源站| 色噜噜狠狠成人中文综合 | 蜜臀久久久久久久| 国产ts人妖一区二区| 丝袜美腿亚洲一区二区图片| 久久精品日韩一区二区三区| 中文字幕欧美一区| 欧美丝袜丝交足nylons| 亚洲图片自拍偷拍| 91成人在线精品| 国产福利一区二区三区视频在线| 精品入口麻豆88视频| 极品少妇xxxx精品少妇| 亚欧色一区w666天堂| 国产福利一区二区三区在线视频| 欧美一卡2卡三卡4卡5免费| 亚洲欧美经典视频| 欧美三级日韩在线| 国产性做久久久久久| 成人va在线观看| 国产电影精品久久禁18| 免费久久99精品国产| 色婷婷久久久久swag精品| 在线播放91灌醉迷j高跟美女 | 亚洲免费观看高清完整| 欧美成人综合网站| 午夜久久福利影院| 国产成人免费xxxxxxxx| 久久影音资源网| 婷婷六月综合网| 欧美三区在线观看| 国产欧美综合在线| 国产精品丝袜在线| 国产精品亚洲人在线观看| 欧美欧美欧美欧美| 亚洲你懂的在线视频| 日韩不卡免费视频| 精品免费日韩av| 免费在线观看视频一区| 26uuu亚洲| 国产在线播放一区二区三区| 国产精品拍天天在线| 精品一区二区三区影院在线午夜| 亚洲精品一线二线三线无人区| 亚洲欧美另类图片小说| 欧美极品aⅴ影院| 91视视频在线直接观看在线看网页在线看 | 亚洲成人精品影院| 日韩三级电影网址| 日韩高清在线一区| 久久久一区二区三区捆绑**| 国产在线一区二区| 亚洲欧美日韩中文字幕一区二区三区| 成人福利视频在线| 五月婷婷综合激情| 欧美美女一区二区在线观看| 免费成人性网站| 日韩精品综合一本久道在线视频| 亚洲妇女屁股眼交7| 69久久99精品久久久久婷婷| 亚洲成av人综合在线观看| 久久精品人人爽人人爽| 成人午夜激情视频| 麻豆成人免费电影| 久久久99免费| 91色视频在线| 亚洲午夜免费电影| 久久精品人人做| 在线亚洲精品福利网址导航| 国产精品99久久久久久久vr | 国产精品乱码妇女bbbb| 成人免费视频app| 日本人妖一区二区| 日韩午夜在线播放| 色综合久久九月婷婷色综合| 日韩高清在线不卡| 一区二区欧美视频| 日韩视频国产视频| 国产精品一区2区| 尤物av一区二区| 6080亚洲精品一区二区| 亚洲国产日韩av| 国产欧美视频一区二区| 成人午夜碰碰视频| 成人免费av网站| 日韩成人一区二区| 亚洲视频网在线直播| 日韩欧美电影一区| 色妞www精品视频|