Mostrando 694,501 - 694,520 Resultados de 696,576 Para Buscar '"P.S.S."', tiempo de consulta: 1.20s Limitar resultados
  1. 694501
    por Johng, Yessong
    Publicado 2004
    Libro electrónico
  2. 694502
    por Randolph, W. Alan
    Publicado 2002
    Libro electrónico
  3. 694503
    Publicado 2007
    Libro electrónico
  4. 694504
    por Yamarone, Richard
    Publicado 2007
    Libro electrónico
  5. 694505
    por Portnoy, Kenneth, 1946-
    Publicado 1998
    Libro electrónico
  6. 694506
    por Jeucken, Marcel
    Publicado 2001
    Libro electrónico
  7. 694507
    Publicado 2011
    Libro electrónico
  8. 694508
    Publicado 2011
    Libro electrónico
  9. 694509
    Libro electrónico
  10. 694510
    por Adair, Thomas H.
    Publicado 2011
    Libro electrónico
  11. 694511
    Publicado 2015
    Libro electrónico
  12. 694512
    por Galitz, Wilbert O.
    Publicado 2002
    Libro electrónico
  13. 694513
    por Fosdick, Howard
    Publicado 2005
    Libro electrónico
  14. 694514
    por Snellgrove, Don, 1947-
    Publicado 2008
    Libro electrónico
  15. 694515
    por Lynn, Adele B.
    Publicado 2007
    Libro electrónico
  16. 694516
    Publicado 1903
    “…Maschinenindustrie von P. Steller. Elektrotechnische industrie von J. …”
    Libro electrónico
  17. 694517
    Publicado 2022
    Tabla de Contenidos: “…Communication bottlenecks in data parallel training -- Analyzing the communication workloads -- Parameter server architecture -- The All-Reduce architecture -- The inefficiency of state-of-the-art communication schemes -- Leveraging idle links and host resources -- Tree All-Reduce -- Hybrid data transfer over PCIe and NVLink -- On-device memory bottlenecks -- Recomputation and quantization -- Recomputation -- Quantization -- Summary -- Section 2 - Model Parallelism -- Chapter 5: Splitting the Model -- Technical requirements -- Single-node training error - out of memory -- Fine-tuning BERT on a single GPU -- Trying to pack a giant model inside one state-of-the-art GPU -- ELMo, BERT, and GPT -- Basic concepts -- RNN -- ELMo -- BERT -- GPT -- Pre-training and fine-tuning -- State-of-the-art hardware -- P100, V100, and DGX-1 -- NVLink -- A100 and DGX-2 -- NVSwitch -- Summary -- Chapter 6: Pipeline Input and Layer Split -- Vanilla model parallelism is inefficient -- Forward propagation -- Backward propagation -- GPU idle time between forward and backward propagation -- Pipeline input -- Pros and cons of pipeline parallelism -- Advantages of pipeline parallelism -- Disadvantages of pipeline parallelism -- Layer split -- Notes on intra-layer model parallelism -- Summary -- Chapter 7: Implementing Model Parallel Training and Serving Workflows -- Technical requirements -- Wrapping up the whole model parallelism pipeline -- A model parallel training overview -- Implementing a model parallel training pipeline -- Specifying communication protocol among GPUs -- Model parallel serving -- Fine-tuning transformers -- Hyperparameter tuning in model parallelism -- Balancing the workload among GPUs -- Enabling/disabling pipeline parallelism -- NLP model serving -- Summary -- Chapter 8: Achieving Higher Throughput and Lower Latency -- Technical requirements…”
    Libro electrónico
  18. 694518
    por Wróbel, Janusz
    Publicado 1990
    Libro electrónico
  19. 694519
    Publicado 2006
    Libro electrónico
  20. 694520
    por Dunning, David
    Publicado 2005
    Libro electrónico