mirror of
https://github.com/lordmathis/CUDANet.git
synced 2025-11-05 17:34:21 +00:00
Implement to_cuda function
This commit is contained in:
@@ -5,15 +5,17 @@
|
|||||||
|
|
||||||
#include <vector>
|
#include <vector>
|
||||||
#include <cublas_v2.h>
|
#include <cublas_v2.h>
|
||||||
|
#include <ilayer.h>
|
||||||
|
|
||||||
namespace Layers {
|
namespace Layers {
|
||||||
|
|
||||||
class Dense {
|
class Dense : public ILayer {
|
||||||
public:
|
public:
|
||||||
Dense(int inputSize, int outputSize, cublasHandle_t cublasHandle);
|
Dense(int inputSize, int outputSize, cublasHandle_t cublasHandle);
|
||||||
~Dense();
|
~Dense();
|
||||||
|
|
||||||
void forward(const float* input, float* output);
|
void forward(const float* input, float* output);
|
||||||
|
void to_cuda();
|
||||||
|
|
||||||
private:
|
private:
|
||||||
int inputSize;
|
int inputSize;
|
||||||
|
|||||||
19
include/layers/ilayer.h
Normal file
19
include/layers/ilayer.h
Normal file
@@ -0,0 +1,19 @@
|
|||||||
|
|
||||||
|
#ifndef I_LAYER_H
|
||||||
|
#define I_LAYER_H
|
||||||
|
|
||||||
|
#include <cublas_v2.h>
|
||||||
|
|
||||||
|
namespace Layers {
|
||||||
|
|
||||||
|
class ILayer {
|
||||||
|
public:
|
||||||
|
virtual ~ILayer() {}
|
||||||
|
|
||||||
|
virtual void forward(const float* input, float* output) = 0;
|
||||||
|
virtual void to_cuda() = 0;
|
||||||
|
};
|
||||||
|
|
||||||
|
} // namespace Layers
|
||||||
|
|
||||||
|
#endif // I_LAYERH
|
||||||
@@ -3,6 +3,8 @@
|
|||||||
|
|
||||||
#include <cuda_runtime.h>
|
#include <cuda_runtime.h>
|
||||||
|
|
||||||
|
#define IDX2C(i,j,ld) (((j)*(ld))+(i))
|
||||||
|
|
||||||
// CUDA error checking macro
|
// CUDA error checking macro
|
||||||
#define CUDA_CHECK(call) \
|
#define CUDA_CHECK(call) \
|
||||||
do { \
|
do { \
|
||||||
|
|||||||
@@ -1,5 +1,10 @@
|
|||||||
#include "dense.h"
|
#include "dense.h"
|
||||||
|
#include "cuda_helper.h"
|
||||||
|
#include <cstdlib>
|
||||||
#include <cublas_v2.h>
|
#include <cublas_v2.h>
|
||||||
|
#include <cstdio>
|
||||||
|
#include <stdexcept>
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
Layers::Dense::Dense(int inputSize, int outputSize, cublasHandle_t cublasHandle)
|
Layers::Dense::Dense(int inputSize, int outputSize, cublasHandle_t cublasHandle)
|
||||||
@@ -13,12 +18,10 @@ Layers::Dense::Dense(int inputSize, int outputSize, cublasHandle_t cublasHandle)
|
|||||||
initializeBiases();
|
initializeBiases();
|
||||||
|
|
||||||
// Allocate GPU memory for weights and biases
|
// Allocate GPU memory for weights and biases
|
||||||
cudaMalloc((void**)&d_weights, sizeof(float) * inputSize * outputSize);
|
CUDA_CHECK(cudaMalloc((void**)&d_weights, sizeof(float) * inputSize * outputSize));
|
||||||
cudaMalloc((void**)&d_biases, sizeof(float) * biases.size());
|
CUDA_CHECK(cudaMalloc((void**)&d_biases, sizeof(float) * biases.size()));
|
||||||
|
|
||||||
// Copy weights and biases to GPU
|
to_cuda();
|
||||||
cudaMemcpy(d_weights, weights.data(), sizeof(float) * inputSize * outputSize, cudaMemcpyHostToDevice);
|
|
||||||
cudaMemcpy(d_biases, biases.data(), sizeof(float) * biases.size(), cudaMemcpyHostToDevice);
|
|
||||||
}
|
}
|
||||||
|
|
||||||
Layers::Dense::~Dense() {
|
Layers::Dense::~Dense() {
|
||||||
@@ -49,4 +52,9 @@ void Layers::Dense::forward(const float* input, float* output) {
|
|||||||
|
|
||||||
// Add biases
|
// Add biases
|
||||||
cublasSaxpy(cublasHandle, outputSize, &alpha, d_biases, 1, output, 1);
|
cublasSaxpy(cublasHandle, outputSize, &alpha, d_biases, 1, output, 1);
|
||||||
|
}
|
||||||
|
|
||||||
|
void Layers::Dense::to_cuda() {
|
||||||
|
CUDA_CHECK(cudaMemcpy(d_weights, weights.data(), sizeof(float) * inputSize * outputSize, cudaMemcpyHostToDevice));
|
||||||
|
CUDA_CHECK(cudaMemcpy(d_biases, biases.data(), sizeof(float) * biases.size(), cudaMemcpyHostToDevice));
|
||||||
}
|
}
|
||||||
Reference in New Issue
Block a user