]> source.dussan.org Git - archiva.git/blob
0006f373219fe50940bd976abdbe81e25cd70c93
[archiva.git] /
1 package org.apache.archiva.reports.consumers;
2
3 /*
4  * Licensed to the Apache Software Foundation (ASF) under one
5  * or more contributor license agreements.  See the NOTICE file
6  * distributed with this work for additional information
7  * regarding copyright ownership.  The ASF licenses this file
8  * to you under the Apache License, Version 2.0 (the
9  * "License"); you may not use this file except in compliance
10  * with the License.  You may obtain a copy of the License at
11  *
12  *  http://www.apache.org/licenses/LICENSE-2.0
13  *
14  * Unless required by applicable law or agreed to in writing,
15  * software distributed under the License is distributed on an
16  * "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
17  * KIND, either express or implied.  See the License for the
18  * specific language governing permissions and limitations
19  * under the License.
20  */
21
22 import org.apache.archiva.admin.model.beans.ManagedRepository;
23 import org.apache.archiva.checksum.ChecksumAlgorithm;
24 import org.apache.archiva.checksum.ChecksummedFile;
25 import org.apache.archiva.configuration.ArchivaConfiguration;
26 import org.apache.archiva.configuration.ConfigurationNames;
27 import org.apache.archiva.configuration.FileTypes;
28 import org.apache.archiva.consumers.AbstractMonitoredConsumer;
29 import org.apache.archiva.consumers.ConsumerException;
30 import org.apache.archiva.consumers.KnownRepositoryContentConsumer;
31 import org.apache.archiva.metadata.model.ArtifactMetadata;
32 import org.apache.archiva.metadata.model.facets.RepositoryProblemFacet;
33 import org.apache.archiva.metadata.repository.MetadataRepository;
34 import org.apache.archiva.metadata.repository.MetadataRepositoryException;
35 import org.apache.archiva.metadata.repository.RepositorySession;
36 import org.apache.archiva.metadata.repository.RepositorySessionFactory;
37 import org.apache.archiva.metadata.repository.storage.RepositoryPathTranslator;
38 import org.apache.archiva.redback.components.registry.Registry;
39 import org.apache.archiva.redback.components.registry.RegistryListener;
40 import org.apache.commons.collections.CollectionUtils;
41 import org.slf4j.Logger;
42 import org.slf4j.LoggerFactory;
43 import org.springframework.context.annotation.Scope;
44 import org.springframework.stereotype.Service;
45
46 import javax.annotation.PostConstruct;
47 import javax.inject.Inject;
48 import javax.inject.Named;
49 import java.io.IOException;
50 import java.nio.file.Path;
51 import java.nio.file.Paths;
52 import java.util.*;
53
54 /**
55  * Search the artifact repository of known SHA1 Checksums for potential duplicate artifacts.
56  * <p>
57  * TODO: no need for this to be a scanner - we can just query the database / content repository to get a full list
58  */
59 @Service ( "knownRepositoryContentConsumer#duplicate-artifacts" )
60 @Scope ( "prototype" )
61 public class DuplicateArtifactsConsumer
62     extends AbstractMonitoredConsumer
63     implements KnownRepositoryContentConsumer, RegistryListener
64 {
65     private Logger log = LoggerFactory.getLogger( DuplicateArtifactsConsumer.class );
66
67     private String id = "duplicate-artifacts";
68
69     private String description = "Check for Duplicate Artifacts via SHA1 Checksums";
70
71     @Inject
72     private ArchivaConfiguration configuration;
73
74     @Inject
75     private FileTypes filetypes;
76
77     /**
78      * FIXME: this could be multiple implementations and needs to be configured.
79      */
80     @Inject
81     private RepositorySessionFactory repositorySessionFactory;
82
83     private List<String> includes = new ArrayList<>();
84
85     private Path repositoryDir;
86
87     private String repoId;
88
89     /**
90      * FIXME: needs to be selected based on the repository in question
91      */
92     @Inject
93     @Named ( value = "repositoryPathTranslator#maven2" )
94     private RepositoryPathTranslator pathTranslator;
95
96     private RepositorySession repositorySession;
97
98     @Override
99     public String getId()
100     {
101         return id;
102     }
103
104     @Override
105     public String getDescription()
106     {
107         return description;
108     }
109
110     @Override
111     public List<String> getIncludes()
112     {
113         return includes;
114     }
115
116     @Override
117     public List<String> getExcludes()
118     {
119         return Collections.emptyList();
120     }
121
122     @Override
123     public void beginScan( ManagedRepository repo, Date whenGathered )
124         throws ConsumerException
125     {
126         repoId = repo.getId();
127         this.repositoryDir = Paths.get( repo.getLocation() );
128         repositorySession = repositorySessionFactory.createSession();
129     }
130
131     @Override
132     public void beginScan( ManagedRepository repo, Date whenGathered, boolean executeOnEntireRepo )
133         throws ConsumerException
134     {
135         beginScan( repo, whenGathered );
136     }
137
138     @Override
139     public void processFile( String path )
140         throws ConsumerException
141     {
142         Path artifactFile = this.repositoryDir.resolve( path );
143
144         // TODO: would be quicker to somehow make sure it ran after the update database consumer, or as a part of that
145         //  perhaps could use an artifact context that is retained for all consumers? First in can set the SHA-1
146         //  alternatively this could come straight from the storage resolver, which could populate the artifact metadata
147         //  in the later parse call with the desired checksum and use that
148         String checksumSha1;
149         ChecksummedFile checksummedFile = new ChecksummedFile( artifactFile);
150         try
151         {
152             checksumSha1 = checksummedFile.calculateChecksum( ChecksumAlgorithm.SHA1 );
153         }
154         catch ( IOException e )
155         {
156             throw new ConsumerException( e.getMessage(), e );
157         }
158
159         MetadataRepository metadataRepository = repositorySession.getRepository();
160
161         Collection<ArtifactMetadata> results;
162         try
163         {
164             results = metadataRepository.getArtifactsByChecksum( repoId, checksumSha1 );
165         }
166         catch ( MetadataRepositoryException e )
167         {
168             repositorySession.close();
169             throw new ConsumerException( e.getMessage(), e );
170         }
171
172         if ( CollectionUtils.isNotEmpty( results ) )
173         {
174             ArtifactMetadata originalArtifact;
175             try
176             {
177                 originalArtifact = pathTranslator.getArtifactForPath( repoId, path );
178             }
179             catch ( Exception e )
180             {
181                 log.warn( "Not reporting problem for invalid artifact in checksum check: {}", e.getMessage() );
182                 return;
183             }
184
185             for ( ArtifactMetadata dupArtifact : results )
186             {
187                 String id = path.substring( path.lastIndexOf( '/' ) + 1 );
188                 if ( dupArtifact.getId().equals( id ) && dupArtifact.getNamespace().equals(
189                     originalArtifact.getNamespace() ) && dupArtifact.getProject().equals(
190                     originalArtifact.getProject() ) && dupArtifact.getVersion().equals(
191                     originalArtifact.getVersion() ) )
192                 {
193                     // Skip reference to itself.
194
195                     log.debug( "Not counting duplicate for artifact {} for path {}", dupArtifact, path );
196
197                     continue;
198                 }
199
200                 RepositoryProblemFacet problem = new RepositoryProblemFacet();
201                 problem.setRepositoryId( repoId );
202                 problem.setNamespace( originalArtifact.getNamespace() );
203                 problem.setProject( originalArtifact.getProject() );
204                 problem.setVersion( originalArtifact.getVersion() );
205                 problem.setId( id );
206                 // FIXME: need to get the right storage resolver for the repository the dupe artifact is in, it might be
207                 //       a different type
208                 // FIXME: we need the project version here, not the artifact version
209                 problem.setMessage( "Duplicate Artifact Detected: " + path + " <--> " + pathTranslator.toPath(
210                     dupArtifact.getNamespace(), dupArtifact.getProject(), dupArtifact.getVersion(),
211                     dupArtifact.getId() ) );
212                 problem.setProblem( "duplicate-artifact" );
213
214                 try
215                 {
216                     metadataRepository.addMetadataFacet( repoId, problem );
217                 }
218                 catch ( MetadataRepositoryException e )
219                 {
220                     throw new ConsumerException( e.getMessage(), e );
221                 }
222             }
223         }
224     }
225
226     @Override
227     public void processFile( String path, boolean executeOnEntireRepo )
228         throws ConsumerException
229     {
230         processFile( path );
231     }
232
233     @Override
234     public void completeScan()
235     {
236         repositorySession.close();
237     }
238
239     @Override
240     public void completeScan( boolean executeOnEntireRepo )
241     {
242         completeScan();
243     }
244
245     @Override
246     public void afterConfigurationChange( Registry registry, String propertyName, Object propertyValue )
247     {
248         if ( ConfigurationNames.isRepositoryScanning( propertyName ) )
249         {
250             initIncludes();
251         }
252     }
253
254     @Override
255     public void beforeConfigurationChange( Registry registry, String propertyName, Object propertyValue )
256     {
257         /* do nothing */
258     }
259
260     private void initIncludes()
261     {
262         includes.clear();
263
264         includes.addAll( filetypes.getFileTypePatterns( FileTypes.ARTIFACTS ) );
265     }
266
267     @PostConstruct
268     public void initialize()
269     {
270         initIncludes();
271         configuration.addChangeListener( this );
272     }
273 }