Gisdom正昱科技官方店

信誉等级:
  • 联系电话:

    010-82699655

  • 公司地址:北京市海淀区北四环西路65号16层1615
  • 开店时间:2012-06-08 10:10:36
  • 在线交易:0
  • 服务保障:
  • 资质认证: 该商家通过资质认证 该商家通过身份认证

您的超强助力:Gisdom GS8000 GPU服务器

收藏商品
分享
促        销:
促销¥143899 (2017-07-31 12:12:21)
剩余时间:
已结束
售        后:
Gisdom正昱科技官方店发货并负责售后服务
特殊说明:
本商品不支持七天无理由退换货
商品类型:
全新

该商品支持到店自提,您可以通过以下方式咨询购买: 商家咨询电话: 010-82699655

Gisdom正昱科技官方店

Gisdom正昱科技官方店

  • 店铺地址:

    北京市海淀区北四环西路65号16层1615

  • 联  系  人:

    王经理

    发送电话地址到手机
  • 信誉等级:

商家评分
描述符合:5分
服务态度:5分
发货速度:5分
同行相比
-持平
-持平
-持平
  • 交易评价:

    0

  • 店铺在线交易量:

    0

展开
实体店铺信息
  • 资质认证: 该商家通过资质认证 该商家通过身份认证
  • 商家电话:

    010-82699655

  • 店铺地址:北京市海淀区北四环西路65号16层1615
  • 联  系  人:王经理
客服中心
010-82699655
周一至周六 9:00-18:00
搜索店内商品
商品名:
价  格:

深度学习服务器--正昱科技(Gisdom基于8卡GTX1080Ti测试报告


   Gisdom品牌(正昱科技公司)通过和*视觉计算领域的*者NVIDIA公司的紧密合作,并与NVIDIA建立了NPN网络合作伙伴关系,通过近十年与高校和科研院的合作经验,将产品类型深度开发。相继推出G2226RGS993,GS8000等深度学习应用的专用GPU计算服务器和工作站,例如在2U整机实现容纳6个NVIDIA GPU计算卡,以及在4U整容纳4个和8个NVIDIA GPU计算卡。

    测试平台:

    Gisdom品牌8卡深度学习服务器,型号:GS8000

    系统环境:Ubuntu 16.04 LTS

    编译器:GNU编译器,包括C/C++/Fortran编译器;Intel编译器,C/C++/Fortran编译器、MKL、MPI等;

    并行环境:配置OpenMP并行环境;GPU开发环境:配置*新CUDA驱动、编译器、调试器、SDK及例子文件等;

    支持cuDNN加速,CUDA FFT、CUDA BLAS等;深度学习框架:预装Caffe, Torch, Theano, BIDMach、TensorFlow

    测试配置:

    2颗十核E5-2630V4(2.2GHZ,8.0GT/S),64G(16G*4)DDR4 2133MHZ内存,1片512G 企业级SSD,1片2T企业级硬盘,8片GTX 1080TI(CUDA核心数3584,11G DDR5显存)。

   备注:安装和调试步骤在此不描述

//通过以下命令可见系统有8GPU

pc@ubuntu:~$ nvidia-smi

Mon Apr 24 22:21:32 2017

+-----------------------------------------------------------------------------+

| NVIDIA-SMI 378.13                 Driver Version: 378.13                    |

|-------------------------------+----------------------+----------------------+

| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |

| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |

|===============================+======================+======================|

|   0  Graphics Device     Off  | 0000:04:00.0     Off |                  N/A |

| 23%   34C    P0    59W / 250W |      0MiB / 11172MiB |      0%      Default |

+-------------------------------+----------------------+----------------------+

|   1  Graphics Device     Off  | 0000:05:00.0     Off |                  N/A |

| 23%   35C    P0    60W / 250W |      0MiB / 11172MiB |      0%      Default |

+-------------------------------+----------------------+----------------------+

|   2  Graphics Device     Off  | 0000:08:00.0     Off |                  N/A |

| 23%   33C    P0    60W / 250W |      0MiB / 11172MiB |      0%      Default |

+-------------------------------+----------------------+----------------------+

|   3  Graphics Device     Off  | 0000:09:00.0     Off |                  N/A |

| 23%   31C    P0    60W / 250W |      0MiB / 11172MiB |      0%      Default |

+-------------------------------+----------------------+----------------------+

|   4  Graphics Device     Off  | 0000:84:00.0     Off |                  N/A |

| 23%   33C    P0    59W / 250W |      0MiB / 11172MiB |      0%      Default |

+-------------------------------+----------------------+----------------------+

|   5  Graphics Device     Off  | 0000:85:00.0     Off |                  N/A |

| 23%   36C    P0    59W / 250W |      0MiB / 11172MiB |      0%      Default |

+-------------------------------+----------------------+----------------------+

|   6  Graphics Device     Off  | 0000:88:00.0     Off |                  N/A |

| 23%   31C    P0    59W / 250W |      0MiB / 11172MiB |      0%      Default |

+-------------------------------+----------------------+----------------------+

|   7  Graphics Device     Off  | 0000:89:00.0     Off |                  N/A |

| 23%   37C    P0    61W / 250W |      0MiB / 11172MiB |      2%      Default |

+-------------------------------+----------------------+----------------------+

测试方法:

使用矩阵乘算例分别测试1块、2块、4块、8GPU卡,在同一计算量下的计算时间对比!

测试命令如下:./matrixMul  gpu_num  loop_num

其中,gpu_num指定使用几块GPU卡计算,loop_num指定计算量,因为这里*大8GPU卡,所以loop_num测试取值可为8gpu_num的取值分别为8,进行测试如下:

//使用8GPU卡进行测试,用时0m20.487s

pc@ubuntu:~$ time ./matrixMul  8  8

MatrixA(3200,3200)*MatrixB(3200,3200) Using GPU[0]:"Graphics Device"  with compute capability 6.1

MatrixA(3200,3200)*MatrixB(3200,3200) Using GPU[2]:"Graphics Device"  with compute capability 6.1

MatrixA(3200,3200)*MatrixB(3200,3200) Using GPU[7]:"Graphics Device"  with compute capability 6.1

MatrixA(3200,3200)*MatrixB(3200,3200) Using GPU[4]:"Graphics Device"  with compute capability 6.1

MatrixA(3200,3200)*MatrixB(3200,3200) Using GPU[5]:"Graphics Device"  with compute capability 6.1

MatrixA(3200,3200)*MatrixB(3200,3200) Using GPU[6]:"Graphics Device"  with compute capability 6.1

MatrixA(3200,3200)*MatrixB(3200,3200) Using GPU[3]:"Graphics Device"  with compute capability 6.1

MatrixA(3200,3200)*MatrixB(3200,3200) Using GPU[1]:"Graphics Device"  with compute capability 6.1

Computing CUDA Kernel...

Computing CUDA Kernel...

Computing CUDA Kernel...

Computing CUDA Kernel...

Computing CUDA Kernel...

Computing CUDA Kernel...

Computing CUDA Kernel...

Computing CUDA Kernel...

Time= 7243.66 msec for one loop (two hundreds of matrinx*matrix)

Time= 7246.23 msec for one loop (two hundreds of matrinx*matrix)

Time= 7255.54 msec for one loop (two hundreds of matrinx*matrix)

Time= 7293.25 msec for one loop (two hundreds of matrinx*matrix)

Time= 7298.95 msec for one loop (two hundreds of matrinx*matrix)

Time= 7312.67 msec for one loop (two hundreds of matrinx*matrix)

Time= 7314.78 msec for one loop (two hundreds of matrinx*matrix)

Time= 7318.51 msec for one loop (two hundreds of matrinx*matrix)

main time:17897.691 seconds

real    0m20.487s

user    1m4.904s

sys     0m16.712s


好评率:100.00%
新品上架,暂未有人评价过,返回顶部看看商品怎么样
最近30天售出-件,累计售出-
最近30天暂无成交记录

留言咨询

该分类共有-条留言
我要留言:(2-200个字)
(选择后,您的留言只有商家可以看到,建议您在询问价格等隐私信息时选择) 发表留言
010-82699655
9:00-18:00
建议反馈返回顶部