Mostrando 705,241 - 705,260 Resultados de 707,452 Para Buscar '"P.S.S."', tiempo de consulta: 1.47s Limitar resultados
  1. 705241
    por Portnoy, Kenneth, 1946-
    Publicado 1998
    Libro electrónico
  2. 705242
    por Jeucken, Marcel
    Publicado 2001
    Libro electrónico
  3. 705243
    Publicado 2011
    Libro electrónico
  4. 705244
    Publicado 2011
    Libro electrónico
  5. 705245
    Libro electrónico
  6. 705246
    por Adair, Thomas H.
    Publicado 2011
    Libro electrónico
  7. 705247
    Publicado 2015
    Libro electrónico
  8. 705248
    por Galitz, Wilbert O.
    Publicado 2002
    Libro electrónico
  9. 705249
    por Fosdick, Howard
    Publicado 2005
    Libro electrónico
  10. 705250
    por Snellgrove, Don, 1947-
    Publicado 2008
    Libro electrónico
  11. 705251
    por Lynn, Adele B.
    Publicado 2007
    Libro electrónico
  12. 705252
    Publicado 1903
    “…Maschinenindustrie von P. Steller. Elektrotechnische industrie von J. …”
    Libro electrónico
  13. 705253
    Publicado 2022
    Tabla de Contenidos: “…Communication bottlenecks in data parallel training -- Analyzing the communication workloads -- Parameter server architecture -- The All-Reduce architecture -- The inefficiency of state-of-the-art communication schemes -- Leveraging idle links and host resources -- Tree All-Reduce -- Hybrid data transfer over PCIe and NVLink -- On-device memory bottlenecks -- Recomputation and quantization -- Recomputation -- Quantization -- Summary -- Section 2 - Model Parallelism -- Chapter 5: Splitting the Model -- Technical requirements -- Single-node training error - out of memory -- Fine-tuning BERT on a single GPU -- Trying to pack a giant model inside one state-of-the-art GPU -- ELMo, BERT, and GPT -- Basic concepts -- RNN -- ELMo -- BERT -- GPT -- Pre-training and fine-tuning -- State-of-the-art hardware -- P100, V100, and DGX-1 -- NVLink -- A100 and DGX-2 -- NVSwitch -- Summary -- Chapter 6: Pipeline Input and Layer Split -- Vanilla model parallelism is inefficient -- Forward propagation -- Backward propagation -- GPU idle time between forward and backward propagation -- Pipeline input -- Pros and cons of pipeline parallelism -- Advantages of pipeline parallelism -- Disadvantages of pipeline parallelism -- Layer split -- Notes on intra-layer model parallelism -- Summary -- Chapter 7: Implementing Model Parallel Training and Serving Workflows -- Technical requirements -- Wrapping up the whole model parallelism pipeline -- A model parallel training overview -- Implementing a model parallel training pipeline -- Specifying communication protocol among GPUs -- Model parallel serving -- Fine-tuning transformers -- Hyperparameter tuning in model parallelism -- Balancing the workload among GPUs -- Enabling/disabling pipeline parallelism -- NLP model serving -- Summary -- Chapter 8: Achieving Higher Throughput and Lower Latency -- Technical requirements…”
    Libro electrónico
  14. 705254
    por Wróbel, Janusz
    Publicado 1990
    Libro electrónico
  15. 705255
    Publicado 2006
    Libro electrónico
  16. 705256
    por Dunning, David
    Publicado 2005
    Libro electrónico
  17. 705257
    por Skinner, Ellen A.
    Publicado 1995
    Libro electrónico
  18. 705258
    por Walker, Lenore E.
    Publicado 2009
    Libro electrónico
  19. 705259
    por Nichols, Shana
    Publicado 2009
    Libro electrónico
  20. 705260
    por Muntigl, Peter
    Publicado 2004
    Libro electrónico