<pre style='margin:0'>
Zhenfu Shi (i0ntempest) pushed a commit to branch master
in repository macports-ports.

</pre>
<p><a href="https://github.com/macports/macports-ports/commit/0dc2b4c35fd47d0c2112d4497bc362dbec69425a">https://github.com/macports/macports-ports/commit/0dc2b4c35fd47d0c2112d4497bc362dbec69425a</a></p>
<pre style="white-space: pre; background: #F8F8F8">The following commit(s) were added to refs/heads/master by this push:
<span style='display:block; white-space:pre;color:#404040;'>     new 0dc2b4c35fd llama.cpp: submission
</span>0dc2b4c35fd is described below

<span style='display:block; white-space:pre;color:#808000;'>commit 0dc2b4c35fd47d0c2112d4497bc362dbec69425a
</span>Author: i0ntempest <i0ntempest@i0ntempest.com>
AuthorDate: Sat Nov 30 02:57:03 2024 +0800

<span style='display:block; white-space:pre;color:#404040;'>    llama.cpp: submission
</span>---
 sysutils/llama.cpp/Portfile | 71 +++++++++++++++++++++++++++++++++++++++++++++
 1 file changed, 71 insertions(+)

<span style='display:block; white-space:pre;color:#808080;'>diff --git a/sysutils/llama.cpp/Portfile b/sysutils/llama.cpp/Portfile
</span>new file mode 100644
<span style='display:block; white-space:pre;color:#808080;'>index 00000000000..4373b2c4194
</span><span style='display:block; white-space:pre;background:#ffe0e0;'>--- /dev/null
</span><span style='display:block; white-space:pre;background:#e0e0ff;'>+++ b/sysutils/llama.cpp/Portfile
</span><span style='display:block; white-space:pre;background:#e0e0e0;'>@@ -0,0 +1,71 @@
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+# -*- coding: utf-8; mode: tcl; tab-width: 4; indent-tabs-mode: nil; c-basic-offset: 4 -*- vim:fenc=utf-8:ft=tcl:et:sw=4:ts=4:sts=4
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+PortSystem              1.0
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+PortGroup               github 1.0
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+PortGroup               cmake 1.1
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+github.setup            ggerganov llama.cpp 4227 b
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+github.tarball_from     archive
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+set git-commit          0533e7f
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+# This line is for displaying commit in CLI only
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+revision                0
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+categories              sysutils
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+maintainers             {i0ntempest @i0ntempest} openmaintainer
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+license                 MIT
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+description             LLM inference in C/C++
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+long_description        The main goal of llama.cpp is to enable LLM inference with minimal\
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        setup and state-of-the-art performance on a wide variety of hardware\
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                         - locally and in the cloud.
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+checksums               rmd160  9d9d51e0d67df89f9cc217c8338640406f9560fe \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        sha256  b57a73880f1c5cae88085dfa19e7dc8c2a1d16f446cdd57afd59b0a78de9e528 \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        size    19572657
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+depends_lib-append      port:curl
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+# cmake relies on git for version info. We need to set them manually.
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+post-patch {
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+    reinplace "s|@BUILD_NUMBER@|${version}|" ${worksrcpath}/common/build-info.cpp.in
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+    reinplace "s|@BUILD_COMMIT@|${git-commit}|" ${worksrcpath}/common/build-info.cpp.in
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+}
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+configure.args-append   -DGGML_LTO=ON \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_CCACHE=OFF \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DLLAMA_CURL=ON
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+if {${os.platform} eq "darwin" && ${os.subplatform} eq "macosx"} {
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+    configure.args-append \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_METAL=ON \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_METAL_EMBED_LIBRARY=ON \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_METAL_MACOSX_VERSION_MIN=${macos_version_major}
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+} else {
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+    configure.args-append \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_METAL=OFF \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_METAL_EMBED_LIBRARY=OFF
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+    depends_lib-append  path:lib/libopenblas.dylib:OpenBLAS
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+}
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+variant blas description {Uses BLAS, improves performance} {
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+    configure.args-append \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_BLAS=ON
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+    if {${os.platform} eq "darwin" && ${os.subplatform} eq "macosx"} {
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+        configure.args-append \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_ACCELLERATE=ON \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_BLAS_VENDOR=Apple
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+    } else {
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+        configure.args-append \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_ACCELLERATE=OFF \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_BLAS_VENDOR=OpenBLAS
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+        depends_lib-append  path:lib/libopenblas.dylib:OpenBLAS
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+    }
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+}
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+variant native description "Force local build and optimize for CPU" {
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+    configure.args-append \
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+                        -DGGML_NATIVE=ON
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+}
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+
</span><span style='display:block; white-space:pre;background:#e0ffe0;'>+default_variants        +blas
</span></pre><pre style='margin:0'>

</pre>