Snark AI希望帮助企业按需接入闲置的gpu


随着机器学习技术的迅猛发展 , 几乎所有的一切都使得gpu成为处理这些操作的首选方法之一 。
但是 , 对一些公司或研究团队来说 , 访问这些gpu——无论是使用这些卡本身 , 还是可能通过AWS之类的手段——可能仍然太困难或太昂贵 。SoDavit Buniatyan和他的联合创始人决定创立Snark AI , 帮助公司租用不用的gpu , 而不是通过亚马逊这样的服务 。虽然较大的云提供商也提供类似的gpu接入 , 但Buniatyan希望 , 如果企业和开发人员能够降低进入的门槛 , 他们就能充分利用不同的网络 。该公司将推出Y Combinator 2018年夏季班 。
Buniatyan说:“我们打赌 , 矿业和AWS或谷歌云服务的价格之间总会有差距 。”“如果采矿业的利润将(高于运行GPU的成本) , 任何人都可以进入AWS , 从事采矿业并实现盈利 。我们正在为客户构建一个分布式云计算平台 , 可以方便地访问那里的资源 , 但却不会被使用 。”
这家初创公司与一些拥有大量闲置gpu的公司合作 , 比如游戏云公司或加密采矿公司 。需要gpu来训练机器学习模型的团队可以访问原始硬件 , 而只需要那些gpu来处理推理的团队可以通过一组api来访问它们 。这两者之间有区别 , 因为它们是机器学习的两个方面——前者建立模型 , 后者用于执行某些任务 , 如图像或语音识别 。Buniatyan说 , 当gpu处于空闲状态时 , 它们会运行挖掘来支付硬件供应商 , 而Snark AI也提供了同时在一块硬件上进行挖掘和运行深度学习推理的能力 。
Snark AI会根据团队的需要匹配适当数量的GPU能力 , 然后将其部署到各个数据中心的分布式空闲卡网络中 。随着时间的推移 , 这是一种潜在的降低GPU成本的方法 , 一开始可能是一项巨大的投资 , 但随着时间的推移 , 当它不被使用时 , 会获得回报 。如果是这样的话 , 它还可能鼓励更多的公司与这样的网络签约——Snark AI或其他——并部署类似的卡 。
此外 , 专注于机器学习或推理的专用芯片也出现了一个新趋势 , 这些芯片旨在降低机器学习任务的成本、功耗或空间需求 。像Cerebras Systems、Mythic、Graphcore或任何其他资金充足的初创公司这样的创业生态系统 , 都有可能在机器学习任务上取代gpu 。还有asic的出现 , 定制芯片更适合加密挖掘这样的任务 , 这可能会破坏这样的生态系统——特别是如果大型云提供商决定构建或部署类似的东西(比如谷歌的TPU) 。但这也意味着 , 有可能创造出一些新的接口层 , 这些接口层可以为公司可能需要但不一定需要来自这些初创公司的尖端技术的任务捕捉所有剩余的信息 。
Dropbox在将重点放在企业和合作上之前就提出过同样的观点:随着它变得更加商品化 , 价格会大幅下降 。对于亚马逊(Amazon)和谷歌这样的公司来说 , 情况可能尤其如此 , 它们已经在使用这种战术 , 可以利用它们在云计算领域的主导地位 , 对Snark AI这样的第三方网络施加巨大压力 。谷歌还能够构建专用硬件 , 如用于特殊操作的TPU 。但buniatyan表示 , 该公司的重点是能够同时处理推理和挖掘 , 并将成本保持在较低水平 , 即使是在专注于机器学习的不断变化的生态系统中 。
【Snark AI希望帮助企业按需接入闲置的gpu】

    推荐阅读