資源簡介
在網(wǎng)上收集了很多資料,然后整理出了這個代碼,并根據(jù)個人理解做了一些比較詳細的注解。希望能對大家有所幫助,不足之處也請大家多多指教!
代碼片段和文件信息
%?導入樣本數(shù)據(jù)
A?=?dir(fullfile(‘C:\Users\19053\Desktop\shuju\*.txt‘));
%定義即將使用的變量
target_sample=[];
input_sample=[];
m=1;
%構(gòu)造輸出矩陣。將x1、x2與y進行行向量組合。input_sample=[x1;x2];?target_sample=y。y是行向量。
for?i?=?1:length(A)
????s=load(A(i).name);
????n=length(s);
????input_sample=[input_sample;s];
????target_sample(m:length(input_sample)i)?=?1;
????m=m+n;
end
%設置參數(shù)。下面的兩個參數(shù)必須是x1、x2與y的行向量組合。
input_sample=input_sample‘;?
target_sample=target_sample‘;
%讀入影像。將影像變?yōu)?份,一份用于訓練,一份用于測試。
OI?=?double(imread(‘caijian.tif‘));
[xyz]?=?size(OI);
OI?=?reshape(OIx*yz);
OI=OI‘;
%打開神經(jīng)網(wǎng)絡工具
nprtool
%創(chuàng)建網(wǎng)絡(選擇運算法則Algorithms+設置訓練參數(shù))
trainFcn?=?‘trainscg‘;%設置訓練函數(shù)。ScaledConjugate?Gradient算法內(nèi)存需求較小,計算速度快。
hiddenlayerSize?=?10;%設置掩層數(shù)量
net?=?patternnet(hiddenlayerSize?trainFcn);%建立網(wǎng)絡
net.input.processFcns?=?{‘removeconstantrows‘‘mapminmax‘};%數(shù)據(jù)歸一化處理
net.divideFcn?=?‘dividerand‘;??%隨機劃分數(shù)據(jù)
net.divideMode?=?‘sample‘;??%劃分每個樣本
net.divi
評論
共有 條評論