Sometimes I have to put text on a path

Tuesday, March 14, 2023

from perceptron to machine learning and javascript online service

 


If u r a beginner in machine learning then try https://www.w3schools.com/ai/default.asp

this post is about some multi layer perceptron online calculators with javascript/typescript for educational purposes

One of the most famous: Tensorflow Playground 


1/NIST calculator (release 2020) has a lot a features from Tensorflow Playground (release 2018).

i luv so much this online service:

The GitHub deployment and repositories of Neural Network Calculator can be found at:

GitHub nn-calculator code: https://github.com/usnistgov/nn-calculator
GitHub nn-calculator deployment: https://pages.nist.gov/nn-calculator/

2/Tensorflow Playground group wrote a tiny neural network library that meets the demands of educational visualization. 


Deep playground is an interactive visualization of neural networks, written in TypeScript using d3.js. 

3/TensorFlow was developed by the Google Brain team. 

The initial version was released in 2015. Google released the updated version of TensorFlow, named TensorFlow 2.0, in September 2019. In 2023  Feb the release is 2.12. https://github.com/tensorflow/tensorflow


4/Tensorflow Playground is also based on some ideas of precursors:

the perfect Chris Olah’s articles about neural networks  (2014):  

And the work of karpathy when he was a PhD student at Standford (release 2014)…

https://cs.stanford.edu/people/karpathy/convnetjs/


a very simple perceptron calculator

an old online interactive book in english and in french (release 2014)

https://mlweb.loria.fr/book/en/perceptron.html


another simple perceptron calculator

The plan:
We're going to train a single neuron (perceptron) to linearly separate some 2D points.
All done in pure JavaScript, from scratch with no libraries
release 2021

A metric for how well the weights worked
Minimise this metric until it's good enough...

Thursday, November 10, 2022

Videosurveillance, Vidéoverbalisation, optique, big data, et deep learning


Les développements de la video-surveillance et autres formes des vidéo-verbalisations, et des video-techno jusqu'aux personnes video-connectés 24h/24h reposent sur 5 piliers:

  1. l'optique avec des cameras de haute résolution motorisées avec zoom ou multi-objectifs et avec durcissement quasiment à des niveaux militaires pour supporter les attaques en fixe ou montées sur des drones, et aussi...... au niveau de chacun de nos téléphones qui sont de + en + des video-phones avec GPS, les voitures sont équipées de + en + de camera pour les assurances 
  2. l'informatique intégrée pour la détection locale de mouvement par exemple, la compression des videos, diffusion du flux en filaire,  en cellulaire ou en wifi
  3. l'informatique de propagation via les applications type réseaux sociaux de diffusion video en temps réel par exemple; la pandémie a fait une énorme promotion des techniques de live-streams pour proposer une communication "innovante" performante avec sa communauté, avec ses collègues...
  4. l'informatique qui utilise le flux big data pour le deep learning / apprentissage (par exemple https://ex-ample.blogspot.com/2022/03/avancees-apprentissage-profond-deep.html)
  5. l'acceptation des peuples d'être filmé, jusqu'à l'acceptation d'être QR-codé suite à la pandémie covid,  la croyance des dirigeants en l'utilité pour lutter contre l'insécurité...

Je ne détaillerai pas ce 5ième point qui a été décortiqué dans un livre:
https://www.lemonde.fr/blog/internetactu/2018/06/02/videosurveillance-paradigme-du-technosolutionnisme/

cam-phones

Nous sommes envahis de systèmes avec des cameras pas seulement les cameras de video-surveillance.

Les cam-phones permettent de nombreuses fonctionnalités comme la lecture QR-code, ou biométrie...

https://en.wikipedia.org/wiki/Camera_phone

Un des derniers datant de sept 2022 est iPhone 14 Pro  : 

  • Triple capteur dorsal avec grand-angle de 48 Mpx (f/1,78), ultra grand-angle de 12 Mpx (f/2,2) et téléobjectif de 12 Mpx (f/1,78)
  • Capteur frontal de 12 Mpx (f/1,9); la caméra frontale dispose également d'une mise au point automatique pour la première fois.

Les développements de ces multi-objectifs avec leur traitement sont colossaux. 

https://www.apple.com/fr/iphone-14-pro/specs/

Enregistrement vidéo 4K à 24, 25, 30 ou 60 i/s
Enregistrement vidéo HD 1080p à 25, 30 ou 60 i/s
Enregistrement vidéo HD 720p à 30 i/s
Mode Cinématique jusqu’à 4K HDR à 30 i/s
Mode Action jusqu’à 2,8K à 60 i/s
Enregistrement vidéo HDR avec Dolby Vision jusqu’à 4K à 60 i/s
Enregistrement vidéo ProRes jusqu’à 4K à 30 i/s (1080p à 30 i/s pour 128 Go de stockage)
Enregistrement vidéo en macro, avec ralenti et accéléré
Prise en charge du ralenti en 1080p à 120 ou 240 i/s

Système de 2ᵉ génération de stabilisation optique de l’image par déplacement du capteur pour la vidéo (objectif principal)
Double stabilisation optique de l’image pour la vidéo (objectif principal et téléobjectif)
Zoom optique avant 3x ; zoom optique arrière 2x ; amplitude du zoom optique : 6x
Zoom numérique jusqu’à 9x
Stabilisation vidéo de qualité cinéma (4K, 1080p et 720p)
Mise au point automatique continue
Prise de photos 8 Mpx pendant l’enregistrement vidéo 4K

Des caméras avant de téléphone allumées constamment:

Qualcomm a présenté, le 1er décembre 2021, son tout nouveau processeur haut de gamme pour smartphone : le Snapdragon 8 Gen 1.  Au rayon des nouveautés par rapport à la puce de l’an dernier, Qualcomm promet de meilleures performances pour toutes les fonctionnalités touchant à l’intelligence artificielle, des débits améliorés en 5G et des améliorations du côté du son et de la photo. Mais le changement le plus intéressant sur cette nouvelle puce est plus discret et n’a pas grand-chose à voir avec les Gigahertz ou les mégabits par seconde. Le Snapdragon 8 Gen 1 sera capable de garder votre module photo frontal activé en permanence.

Selon Qualcomm, cette fonctionnalité est destinée à améliorer la sécurité de votre mobile et permet à un smartphone de se déverrouiller automatiquement lorsqu’il aperçoit votre visage. Sur la page de présentation de la puce, l’entreprise écrit que l’outil « suit automatiquement vos activités et votre environnement ». En somme, c’est un mécanisme de détection faciale activée en permanence, qui est censé vous simplifier la vie en vous évitant de devoir déverrouiller votre smartphone à chaque fois que vous l’attrapez.

La fonctionnalité se repose en fait sur une puce dédiée, optimisée pour fonctionner avec très peu d’énergie. Ce composant, ainsi que tout le processus de détection de visage, fait l’objet d’une protection « renforcée » selon Qualcomm. « Les données de l’appareil photo ne quittent jamais le hub de détection lorsqu’il recherche des visages », précise la marque. L’appareil photo ne fait que rechercher un visage et n’active en fait jamais le reste des fonctionnalités du téléphone. La reconnaissance faciale en elle-même ne se lance que si un visage est détecté dans le champ. « Il est impossible, en mode basse consommation, de capturer une image », a précisé Judd Heap à The Verge.


Les aspects légaux en France

La loi de décembre 2016 a élargit la possibilité de vidéo-verbaliser à toute infraction routière et pas seulement le stationnement. Il risque de faire enfin monter la contestation.

https://www.service-public.fr/particuliers/vosdroits/F2517

Une autorisation spécifique est à demander à la Cnil : Commission nationale de l'informatique et des libertés en cas de dispositif installé pour identifier les personnes (caméra associée à un système biométrique).

enregistrement sonore des lieux publics

Il est surprenant que la video soit acceptée mais pas le son.
L’avertissement de la CNIL à l’encontre du projet de captation de bruit suspect par la ville de Saint Etienne:


Wednesday, March 2, 2022

avancées apprentissage profond deep learning, example des voitures avec détection panneaux , et véhicules autonomes

 Après une longue absence, les évolutions les plus impensables des progrès de la science  ressortent encore plus.

Le domaine apprentissage profond deep learning (hierarchical learning) a été le secteur scientifique qui a progressé de manière inimaginable et surtout très rapide.

issu de wikipedia

https://fr.wikipedia.org/wiki/Apprentissage_profond

Dans pubmed, la recherche "deep learning" augmente de 200 en 2013 à 14700 en 2021
en montée exponentielle.

https://pubmed.ncbi.nlm.nih.gov/?term=deep+learning&filter=years.2007-2022&size=100

Yoshua Bengio est un chercheur canadien réputé dans ce domaine. Il a été interviewe en 2018:

https://www.nouvelobs.com/tech/20181107.OBS5057/les-vrais-dangers-de-l-intelligence-artificielle.html

Avant d'expliquer l'apprentissage profond, rappelons ce que sont l'intelligence artificielle (IA) et l'apprentissage automatique [machine learning]. Les recherches en IA visent à donner aux ordinateurs la capacité de prendre de meilleures décisions, ultimement aussi bien que ce que nous, humains, sommes capables de faire. On est encore très loin du niveau d'intelligence des humains, mais il y a eu des progrès significatifs ces dernières années, de multiples applications se mettent en place et font l'objet d'un intérêt industriel croissant. Plusieurs méthodes ont été explorées durant les dernières décennies pour rendre les ordinateurs plus intelligents, mais ce qui marche le mieux depuis une quinzaine d'années, ce sont les méthodes basées sur l'apprentissage automatique. Le principe en est le suivant : pour que l'ordinateur devienne intelligent, on va lui permettre d'acquérir des connaissances par l'observation d'exemples et par l'interaction avec son environnement. On inverse donc les méthodes classiques qui consistent à donner directement à l'ordinateur des connaissances, comme on écrit des formules dans un livre ou comme on programme un ordinateur de manière classique. Dans les méthodes d'apprentissage automatique, on s'intéresse au contraire aux connaissances acquises par l'ordinateur.

Parmi les nombreuses méthodes en apprentissage automatique explorées depuis des décennies, il existe un certain type de méthodes qui s'appellent apprentissage profond, qui font suite aux méthodes plus anciennes appelées réseaux de neurones, car inspirées du fonctionnement du cerveau. Ce sont ces méthodes-là qui ont connu des succès incroyables ces dernières années. Pourquoi parle-t-on d'apprentissage profond ? Parce qu'on construit des systèmes qui transforment les données brutes à travers plusieurs étapes. "Profond" signifie ici que beaucoup d'étapes se succèdent. Par exemple, une image est transformée par votre cortex (ou par des réseaux de neurones profonds) en plusieurs étapes, chacune menant à une nouvelle représentation de cette image, une représentation plus abstraite. Ça commence avec une représentation brute, comme les pixels, puis, ensuite, on a des couches qui détectent les bords entre les objets, puis les objets eux-mêmes, puis la nature de la scène. L'important est que ces représentations sont apprises plutôt que fixées par avance comme on le faisait auparavant.

- - - - -

L'extrême rapidité des applications industrielles me semble l'évènement le plus décisif.

La reconnaissance des panneaux de signalisation avec l'exemple de la citroen C3 d'entrée de gamme qui est une des voitures les moins chères de la gamme B est révélateur.


En décembre 2021, "La voiture sans conducteur débarque en Europe"

Pour l’instant, l’Allemagne est le seul pays européen qui a adapté sa législation pour permettre cet automatisme. Aux États-Unis, la possibilité est déjà ouverte dans quelques états. En Chine, c’est autorisé d’office.

Mais l’important, c’est le pas technologique franchi, explique Marc Vrecko : Ces deux voitures sont équipées de capteurs Lidar, un scanner laser qui reconstitue l’environnement de la voiture en temps réel et en 3D. C’est le premier, et pour l’heure, le seul produit pour des voitures de série.

La Mercedes propose même d’emblée un Lidar de deuxième génération. Ce scanner est au centre du dispositif : il offre des capacités de perception uniques, y compris de nuit et quelles que soient les conditions climatiques. Il scrute l’environnement à l’avant de la voiture 25 fois par seconde, avec un large champ de vision et une portée jusqu’à plus de 200 mètres. 

https://www.ouest-france.fr/economie/automobile/la-voiture-sans-conducteur-devient-realite-6487f35c-5c15-11ec-874b-5720349d4e86

En Europe, en juillet 2022, la Commission européenne va imposer la présence d’un système d’alerte de survitesse dans nos voitures. L’objectif est de réduire le nombre d’accidents mais certaines associations craignent pour la protection des données récoltées.

Ce système d’adaptation intelligente de la vitesse (baptisé “AIV” en français, ndlr) devra équiper les nouveaux modèles introduits sur le marché européen à partir de juillet 2022. Il deviendra obligatoire pour toutes les voitures neuves qui seront vendues à partir de juillet 2024”, indique la Commission européenne, précisant que les véhicules déjà commercialisés avant cette date ne seront pas concernés.

Les autres équipements qui deviennent obligatoires:

L’avertisseur de somnolence et de perte d’attention du conducteur.

La reconnaissance avancée de distraction du conducteur.

Le signal de freinage d’urgence sous forme de signal lumineux pour indiquer aux usagers derrière le véhicule que le conducteur freine brusquement.

La détection en marche arrière avec une caméra pour éviter les collisions avec les personnes et les objets situés derrière le véhicule.

Le système de surveillance de la pression des pneus avertissant le conducteur en cas de perte de pression.

La facilitation de l’installation d’un éthylomètre antidémarrage.

Le système de maintien de la trajectoire.

L’enregistreur de données d’événements aussi appelé “boîte noire”

https://www.auto-ies.com/blog/securite-routiere-2022-quelles-sont-les-nouvelles-reglementations

https://www.capital.fr/auto/limiteur-de-vitesse-obligatoire-en-2022-nos-donnees-seront-elles-utilisees-par-les-assureurs-1420845

Des taxis autonomes sur les routes de Chine:

https://geeko.lesoir.be/2022/02/22/des-taxis-autonomes-sur-les-routes-de-chine/

voir la page wikipedia très bien documentée:

https://en.wikipedia.org/wiki/Self-driving_car

De nombreuses voitures sont déjà équipées de Détection de piéton/motard par analyse d’images

https://www.grpformations.com/prevention/prevenir-les-collisions-engins-pietons-detection-de-personnes-par-analyse-dimages/

il existe aussi l’alerte active de franchissement involontaire de ligne, ou de bas-côté...

pour un ensemble de ces systèmes "conçus pour vous aider et rendre la conduite plus sûre, que vous soyez en train de vous garer, sur l'autoroute ou en ville":

https://www.toyota.fr/world-of-toyota/safety/


Bref ces domaines très actifs soulignent que le monde des cameras va "réguler" le monde des êtres humains et leur liberté.

les domaines de reconnaissance facial, de reconnaissance de port de masque, de biométrie... connaissent les mêmes interrogations.

- - - - - 





retour

 



Après une longue période sans publier sur ce blog, je reviens.


Wednesday, November 23, 2016

Google Trips et Google Cultural Institute

En sept 2016, google présente une nouvelle application qui devrait intéresser tous les voyageurs : Google Trips.
En effet, cette appli pour iOS et Android souhaite vous gérer votre temps, et vous permettre d’accéder plus rapidement aux informations dont vous avez besoin lorsque vous vous êtes en déplacement, en voyage, en ballade touristique, en excursion.

Google Trips vous permet d’organiser votre voyage dans les moindres détails. Vous pouvez y conserver toutes les informations importantes au même endroit sur votre smartphone. Et vous pourrez y accéder à tout le contenu de Trips même sans connexion internet.

A conditions de l’y autoriser lors de l’installation, l’appli peut aussi analyser le contenu des vos mails, si vous utilisez Gmail. Elle peut alors en extraire les informations relatives à vos horaires de trains ou d’avion, les réservations de votre hôtel, les locations de véhicules et toutes les données en relation avec les activités prévues lors de votre séjour qui auront été trouvées dans votre messagerie ou dans votre agenda, si vous utilisez Google Agenda.



Trips propose également de conserver l’historique de vos déplacements dans Google Maps. Cela permettra à Trips d’analyser vos gouts et vos centres d’intérêts. L’appli pourra alors vous recommander des activités que vous aimerez sans doute. Google Trips peut également vous proposer des lieux plébiscités par les internautes, très pratique lorsque vous ne savez pas quoi faire dans un endroit que vous ne connaissez pas, ou même autour de chez vous.

Trips est aussi la "gentille organisatrice" de vos visites. Google Trips peut en effet vous aider à planifier vos déplacements dans la ville. Elle vous aide d’ailleurs à organiser vos visites de la manière la plus logique, en calculant les meilleurs trajets pour vous rendre d’un point d’intérêt à un autre, par rapport à ceux que vous avez choisi parmi les endroits marquants ou les suggestions faites par l’application.

Enfin, Google Trip peut aussi être votre guide en proposant des photos et des informations sur tous les lieux marquants que vous souhaitez découvrir. Les informations sont piochées dans Google Maps et bénéficient ainsi de la riche base de données de Google, mais aussi des avis des internautes.

Pour vos prochains weekend ou vos vacances, Google Trips pourra donc vous rendre de fiers services. L’appli est gratuite et disponible sur iOS et Android.

https://blog.google/topics/travel/see-more-plan-less-try-google-trips/
https://get.google.com/trips/


------------

 Google Cultural Institute

https://www.google.com/culturalinstitute/beta/
Si vous n’avez pas encore eu la chance de visiter les Châteaux de la Loire, le Google Cultural Institute vous propose désormais une incroyable visite virtuelle depuis votre ordinateur, votre smartphone, ou votre tablette.

Les Châteaux de la Loire en visite virtuelle

Avec Google Street View, vous pouvez donc visiter l’Abbaye Royale de Fontevraud, la Cité Royale de Loches, le Domaine national de Chambord, les Châteaux d’Angers, d’Azay-le-Rideau, de Chateaudun, de Chenonceaux, du Clos Lucé, de Fougères-sur-Bièvre, de Meung-sur-Loire, de Montpoupon, du Moulin, du Rivau, de Sully-sur-Loire, de Talcy, de Villandry, ainsi que le Château et le Jardin de Bouges, et la Forteresse royale de Chinon.

Sur ces 18 sites historiques de la Vallée de la Loire, il est désormais possible de visiter châteaux et jardins de manière classique dans Google Street View, avec notamment 7 lieux qui peuvent être survolés. Mais le Google Cultural Institute nous permet aussi de faire des visites virtuelles en 360° de ces lieux, dont certains ne sont même pas ouverts au public !

Google Art Camera : des clichés en 1 000 Megapixels

Depuis le site dédié, 46 expositions virtuelles sont proposées. Elle permettent d’admirer plus de 2000 objets historiques. Google a notamment utilisé une caméra spéciale, la Art Caméra, qui permet de réaliser des clichés avec une très haute résolution de 1000 Megapixels. Ils permettent ainsi d’en apprécier les détails les plus infimes avec un zoom presque à infini dans 56 œuvres en particulier.

Avec cette technologie inédite, on peut par exemple découvrir ou redécouvrir la célèbre Tenture de l’Apocalypse d’Angers ou les fresques de la salle capitulaire de l’Abbaye de Fontevraud, datant du XVIe siècle.

En plus des 18 millions de visiteurs qui parcourent chaque année la Vallée de la Loire, la numérisation des monuments et des oeuvres permet donc au plus grand nombre de les apprécier dans Google Street View dans un rendu proche de la réalité et jamais vu auparavant. Ces visites sont entièrement gratuites et accessibles depuis un ordinateur, un smartphone ou une tablette, mais aussi un casque de réalité virtuelle comme le Google Cardboard.

Du fait de la diversité des outils google pour y mettre des images, difficile de s'y retrouver...


your google+ profile, et aussi image valable pour tous les produits google

https://plus.google.com/u/0/photos/113300494682639557816/albums/profile
(c'est le dossier profile)
if you select
https://plus.google.com/u/0/photos/113300494682639557816/albums
you will get :
https://photos.google.com/u/0/?+info qui disparait pour
https://photos.google.com/u/0/
qui est votre homepage google photos.

albumarchive

Si vous regardez votre albumarchive
https://get.google.com/albumarchive/113300494682639557816


Profile photos you’ve chosen for any Google services you use, including Google+, Gmail, Hangouts & others. Changes you make here apply across all of Google, including when you communicate or share content.

dans "Auto Backup"
on a les photos/video des anciens "picasa album", des dossiers synchronisés avec google photos ou téléchargé avec photos
Photos and videos backed up from your devices and browser.

dans Photos from drive
on a les Photos & videos sauvées dans et avec Google Drive. 
Les Changements réalisés ici sont appliqués dans drive.

Bref utiliser les albums Google archivés:
Vous pouvez consulter, supprimer ou télécharger les photos que vous avez importées dans d'autres produits Google, dont :
  • Picasa Albums Web
  • Google+
  • Blogger
  • Hangouts
  • Google Photos
  • Google Drive

Blogspot/blogger

vos images de blog, visible dans drive (en ordre temporelle)  et album archive (apparaissent alors dans un dossier et par blog.
On a des options comme:
Show your Google Drive photos & videos in your album archive

google drive et google photos

permet de faire des albums, de la recherche poussée, du stockage synchronisé (avec l'appli)
mais sur le fond comme fichier et stockage final
avec google drive, peu de différence :






Wednesday, November 2, 2016

Javascript blog CMS : blogger




To build any webpage on internet there are three most important languages viz. HTML, JavaScript and CSS. JavaScript is one of the most commonly used client-side programming language that may communicate asynchronously (i.e. independently of other processes) to web browser.

If you are using BlogSpot.com blogger blog then you have lots of option to include JavaScript codes. It will depends on where you want to render it and for which purpose you are using that JavaScript files or codes.

See this present "ex-ample" blog.


http://www.superwebtricks.com/add-javascript-codes-to-blogger-template/

Wednesday, May 20, 2015

introduction to NVE, NVT, NpT ensembles

The first term with which to get acquainted is “ensemble”. In the context of statistical mechanics, an ensemble is a collection of configurations of a system. These configurations will have a set of common constraints such as temperature, volume and pressure, but will differ in the positions and velocities of the individual components (atom/molecule/fragment) across the different configurations. So, even though these configurations differ microscopically, they possess the same common macroscopic properties (based on the ensemble they belong to). This means that ensemble averages for these properties can be computed. The simplest such ensemble is the microcanonical ensemble, in which the constraints are number of particles, volume and total energy, i.e., these quantities are constrained to be the same across all the configurations belonging to the microcanonical ensemble, and hence this ensemble is also known as the “NVE” ensemble. The common nomenclature of the ensemble provides information about the constraints in that ensemble. Hence, the NVE ensemble contains all possible combinations of positions and velocities for the particles which satisfy an energy constraint, provided all these configurations have the same particle density. The total number of configurations for an ensemble is given by its “partition function”, and for the microcanonical ensemble, the microcanonical partition function (also called density of states) is represented as Ω(N,V,E).
The fundamental importance of the density of states is based on the relationship
S(N,V,E) = kB ln Ω(N,V,E) (2.2)
where S is the entropy and kB is Boltzmann’s constant. Eq. 2.2 shows how a macroscopic property like entropy is directly related to the density of states for a system at constant density. A more convenient and commonly used ensemble is the canonical (NVT) ensemble, where the density and temperature are constrained across the configuration.
Similar to the microcanonical ensemble, a thermodynamic quantity can be related to the partition function. In this case, it is the Helmholtz free energy A = −kBT ln Q(N,V,T) (2.6) A commonly used ensemble in MC is the grand canonical ensemble, in which the chemical potential, volume and temperature are constrained. This means that the number of particles is allowed to fluctuate to satisfy the chemical potential constraint. The NpT ensemble, also called the isothermal-isobaric ensemble is also a commonly used ensemble. Here, the number of particles, temperature and pressure are constrained.
The fundamental relationship for the NpT ensemble is the expression relating the Gibbs free energy to the partition function: G = −kBT ln ∆(N,P,T) (2.8) where G is the Gibbs free energy, a thermodynamic quantity of fundamental importance to the problem of phase equilibrium. In all the ensembles listed above, the partition function integrals grow rapidly with increasing complexity and system sizes. Hence, trying to solve these integrals analytically is impractical. Molecular simulations aid in sampling the configuration space for these ensembles subject to the probability distribution for a given ensemble, and ensemble averages can be obtained using expressions similar to Eq. 2.5.


Ref: http://etd.nd.edu/ETD-db/theses/available/etd-08182009-110710/unrestricted/JayaramanS082009D.pdf

Monday, May 18, 2015

Molecular Dynamic simulation of heating of gold nanorod in water (nature 2015)

Molecular Dynamic simulation of heating of gold nanorod in water

Potential Model for Gold

Molecular dynamics (MD) simulations of the gold nano rods in presence of water were
performed using embedded atom method (EAM)
[7. Daw, M. & Baskes, M. Semiempirical, Quantum Mechanical Calculation of Hydrogen Embrittlement in Metals. Phys. Rev. Lett. 50, 1285–1288 (1983).
8. Daw, M. & Baskes, M. Embedded-atom method: Derivation and application to impurities, surfaces,and other defects in metals. Phys. Rev. B 29, 6443–6453 (1984). ] .
For the EAM, the total energy (Etot) for a system of N atoms can be written as equa S14.

To model the interactions of water molecules, we have employed flexible SPC/Fw water
model to conduct simulations at various temperatures9
. The potential interaction in the flexible
SPC/Fw, as shown in equation (S15), is a sum of pair-wise interactions for bonded and nonbonded
terms.

Potential model and parameters for gold-water interaction
We used the Lorentz-Berthelot rule to estimate the interaction between water and gold
that is modeled using standard 6-12 potential.

Melting temperatures as a function of nanorod aspect ratios:
We have further calculated the bulk melting point as well as the melting of nanorods with
different aspect ratios. The melting point of bulk gold predicted by the EAM potential used in this work is 1281 K. The experimental value is 1337 K and thus the prediction of our potential model is very good.
The melting points for nanorods with different aspect ratios (AR) are summarized below. It can be seen that nanorods with higher aspect ratios have lower melting points compared to bulk. This is not surprising since the surface area (Table S3) increases with increasing AR.


Ref: http://www.nature.com/srep/2015/150130/srep08146/extref/srep08146-s1.pdf